CN111210275A - 基于vr数据的用户画像构建方法、装置及计算机设备 - Google Patents

基于vr数据的用户画像构建方法、装置及计算机设备 Download PDF

Info

Publication number
CN111210275A
CN111210275A CN202010010486.2A CN202010010486A CN111210275A CN 111210275 A CN111210275 A CN 111210275A CN 202010010486 A CN202010010486 A CN 202010010486A CN 111210275 A CN111210275 A CN 111210275A
Authority
CN
China
Prior art keywords
user
data
information
virtual reality
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010010486.2A
Other languages
English (en)
Other versions
CN111210275B (zh
Inventor
张�杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202010010486.2A priority Critical patent/CN111210275B/zh
Publication of CN111210275A publication Critical patent/CN111210275A/zh
Application granted granted Critical
Publication of CN111210275B publication Critical patent/CN111210275B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • G06Q30/0271Personalized advertisement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Physics & Mathematics (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了基于VR数据的用户画像构建方法、装置、计算机设备及存储介质,涉及用户画像技术领域。该方法包括接收由虚拟现实采集终端所采集的目标用户的虚拟现实特征数据;调用并执行预先存储的标签转化策略将虚拟现实特征数据中包括的用户账号信息、用户动作数据信息、和用户声音数据信息分别进行标签转化,得到与目标用户相对应的目标用户画像;将目标用户画像发送至与用户账号信息对应的目标区域以进行存储。该方法实现了由通过虚拟现实采集终端采集目标用户的虚拟现实特征数据以转化为目标用户画像,在该目标用户的全景数据很少或缺失的情况下,也能基于虚拟现实特征数据准确的构建用户画像。

Description

基于VR数据的用户画像构建方法、装置及计算机设备
技术领域
本发明涉及用户画像技术领域,尤其涉及一种基于VR数据的用户画像构建方法、装置、计算机设备及存储介质。
背景技术
目前,用户画像在电商领域得到广泛应用。在大数据时代背景下,用户信息充斥在网络中,将用户的每个具体信息抽象成标签,利用这些标签将用户形象具体化,从而为用户提供有针对性的推送信息。目前,获取用户画像一般是基于用户的全景数据(如消费行为数据)来建立用户画像,这就要求需要以海量的用户全景数据才能建立用户画像,一旦某一用户的全景数据为空或者数据信息很少,则难以准确对用户进行用户画像的构建。
发明内容
本发明实施例提供了一种基于VR数据的用户画像构建方法、装置、计算机设备及存储介质,旨在解决现有技术中构建用户画像一般是基于用户的全景数据来建立用户画像,若某一用户的全景数据为空或者数据信息很少,则难以准确对用户进行用户画像的构建的问题。
第一方面,本发明实施例提供了一种基于VR数据的用户画像构建方法,其包括:
接收由虚拟现实采集终端所采集的目标用户的虚拟现实特征数据,并解析所述虚拟现实特征数据中包括的用户账号信息、用户动作数据信息、用户声音数据信息;所述用户动作数据信息为所述虚拟现实采集终端所采集的当前动作对应的当前动作数据集合,所述用户声音数据信息为所述虚拟现实采集终端所采集的当前语音信息对应的当前语音数据集合;
调用并执行预先存储的标签转化策略,将所述虚拟现实特征数据所包括的用户账号信息、用户动作数据信息、用户声音数据信息分别进行标签转化,分别得到与所述用户账号信息对应的第一标签集,与所述用户动作数据信息对应的第二标签集,与所述用户声音数据信息对应的第三标签集;其中,所述标签转化策略中存储有将分别将用户账号信息、用户动作数据信息、用户声音数据信息对应转化为标签的子策略;
将所述第一标签集、所述第二标签集及所述第三标签集进行合并,得到与所述目标用户相对应的目标用户画像;以及
将所述目标用户画像发送至与所述用户账号信息对应的目标区域以进行存储。
第二方面,本发明实施例提供了一种基于VR数据的用户画像构建装置,其包括:
数据采集解析单元,用于接收由虚拟现实采集终端所采集的目标用户的虚拟现实特征数据,并解析所述虚拟现实特征数据中包括的用户账号信息、用户动作数据信息、用户声音数据信息;所述用户动作数据信息为所述虚拟现实采集终端所采集的当前动作对应的当前动作数据集合,所述用户声音数据信息为所述虚拟现实采集终端所采集的当前语音信息对应的当前语音数据集合;
数据标签化单元,用于调用并执行预先存储的标签转化策略,将所述虚拟现实特征数据所包括的用户账号信息、用户动作数据信息、用户声音数据信息分别进行标签转化,分别得到与所述用户账号信息对应的第一标签集,与所述用户动作数据信息对应的第二标签集,与所述用户声音数据信息对应的第三标签集;其中,所述标签转化策略中存储有将分别将用户账号信息、用户动作数据信息、用户声音数据信息对应转化为标签的子策略;
画像数据合并单元,用于将所述第一标签集、所述第二标签集及所述第三标签集进行合并,得到与所述目标用户相对应的目标用户画像;以及
用户画像存储单元,用于将所述目标用户画像发送至与所述用户账号信息对应的目标区域以进行存储。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的基于VR数据的用户画像构建方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的基于VR数据的用户画像构建方法。
本发明实施例提供了一种基于VR数据的用户画像构建方法、装置、计算机设备及存储介质,通过虚拟现实采集终端采集目标用户的虚拟现实特征数据以转化为目标用户画像,在该目标用户的全景数据很少或缺失的情况下,也能基于虚拟现实特征数据准确的构建用户画像。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于VR数据的用户画像构建方法的应用场景示意图;
图2为本发明实施例提供的基于VR数据的用户画像构建方法的流程示意图;
图3为本发明实施例提供的基于VR数据的用户画像构建方法的子流程示意图;
图4为本发明实施例提供的基于VR数据的用户画像构建方法的另一子流程示意图;
图5为本发明实施例提供的基于VR数据的用户画像构建方法的另一子流程示意图;
图6为本发明实施例提供的基于VR数据的用户画像构建方法的另一子流程示意图;
图7为本发明实施例提供的基于VR数据的用户画像构建装置的示意性框图;
图8为本发明实施例提供的基于VR数据的用户画像构建装置的子单元示意性框图;
图9为本发明实施例提供的基于VR数据的用户画像构建装置的另一子单元示意性框图;
图10为本发明实施例提供的基于VR数据的用户画像构建装置的另一子单元示意性框图;
图11为本发明实施例提供的基于VR数据的用户画像构建装置的另一子单元示意性框图;
图12为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的基于VR数据的用户画像构建方法的应用场景示意图;图2为本发明实施例提供的基于VR数据的用户画像构建方法的流程示意图,该基于VR数据的用户画像构建方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。
如图2所示,该方法包括步骤S110~S140。
S110、接收由虚拟现实采集终端所采集的目标用户的虚拟现实特征数据,并解析所述虚拟现实特征数据中包括的用户账号信息、用户动作数据信息、用户声音数据信息;所述用户动作数据信息为所述虚拟现实采集终端所采集的当前动作对应的当前动作数据集合,所述用户声音数据信息为所述虚拟现实采集终端所采集的当前语音信息对应的当前语音数据集合。
在本实施例中,当用户使用虚拟现实采集终端(即VR设备)而具体登录使用应用程序时(登录应用程序的过程中即登录成功后,虚拟现实采集终端与服务器均是保持通讯),一般需根据账户登录,也就产生了用户账号信息(包括性别、年龄、职业等信息)。
由于虚拟现实采集终端即虚拟现实硬件设备,一般包括交互设备和声音设备,交互设备包括位置追踪仪、数据手套、三维鼠标、动作捕捉设备、眼动仪、力反馈设备以及其他交互设备,声音设备为三维的声音系统。例如,当虚拟现实采集终端为动作捕捉设备和声音采集设备时则是包括多个关键传感器和至少一个声音传感器(关键传感器一般采用加速度传感器或是姿态传感器,声音传感器采用咪头),用户穿戴虚拟现实采集终端时,虚拟现实采集终端中的多个关键传感器分布在用户身上的多个关键位置,如头部,左手手掌,左手肘关节,右手掌,右手肘关节,左膝关节,右膝关节等,声音传感器分布在头部以更接近用户嘴部。
而且在使用VR设备的过程中,经常会采集用户的动作数据,或是声音数据等。由动作数据或声音数据分析用户的用户画像也是有益的。例如某一用户A的用户动作数据信息中对应该用户A的动作频率为10次/分钟,表示该用户在使用VR设备的操作较少,是性格偏安静类用户;同样的,用户A的声音数据中对应该用户A的说话频率为20词/分钟,也表示该用户在使用VR设备的说话较少,是属于话少类用户。
通过接收由虚拟现实采集终端所采集的目标用户的虚拟现实特征数据,便于服务器以虚拟现实特征数据为数据基础来构建用户画像。
当服务器接收了所述虚拟现实特征数据后,可以获取虚拟现实特征数据中所包括的3个子数据表,上述3子数据表中分别存储有用户账号信息、用户动作数据信息、和用户声音数据信息。其中,用户账号信息包括性别、年龄、职业等信息;所述用户动作数据信息为所述虚拟现实采集终端所采集的当前动作对应的当前动作数据集合,所述用户声音数据信息为所述虚拟现实采集终端所采集的当前语音信息对应的当前语音数据集合。通过对各子数据表的数据提取,得到了用户账号信息、用户动作数据信息、和用户声音数据信息分别对应的具体数据。
在一实施例中,如图3所示,步骤S110包括:
S1111、获取当前人脸图片,对当前人脸图片依次进行灰度校正及噪声过滤,得到预处理后图片;
S1112、通过卷积神经网络模型获取与所述预处理后图片对应的图片特征向量;
S1113、将所述图片特征向量与人脸数据库中已存储的特征模板进行比对,判断人脸数据库中已存储的特征模板中是否存在与所述预处理后图片对应的图片特征向量相同的特征模板;
S1114、若人脸数据库中已存储的特征模板中存在与所述预处理后图片对应的图片特征向量相同的特征模板,获取对应的用户账号信息;
S1115、获取所述用户账号信息包括的年龄信息和职业信息。
在本实施例中,可通过VR设备的图像采集装置(如摄像头)来获取用户面部图像,从而进行人脸识别以快速获取与用户面部图像对应的用户账号信息以进行登录。
对于人脸图片的图像预处理是基于人脸检测结果,对图像进行处理并最终服务于特征提取的过程。服务器获取的原始图像(即当前人脸图片)由于受到各种条件的限制和随机干扰,往往不能直接使用,必须在图像处理的早期阶段对它进行灰度校正、噪声过滤等图像预处理。对于人脸图像而言,其预处理过程主要包括人脸图像的光线补偿、灰度变换、直方图均衡化、归一化、几何校正、滤波以及锐化等。
在获取图片的特征向量时,先获取与每一帧预处理后图片对应的像素矩阵,然后将每一帧预处理后图片对应的像素矩阵作为卷积神经网络模型中输入层的输入,得到多个特征图,之后将特征图输入池化层,得到每一特征图对应的最大值所对应一维行向量,最后将每一特征图对应的最大值所对应一维行向量输入至全连接层,得到与每一帧预处理后图片对应的图片特征向量。
由于服务器的人脸数据库中已存储的特征模板中存储了已采集的海量的人脸图片对应的特征向量,也即每一个人的人脸均对应唯一的特征向量,有了这些海量的特征模板为数据基础后,可以用来确定预处理后图片对应的一个或多个人,从而实现人脸识别。若人脸数据库中已存储的特征模板中不存在与所述预处理后图片对应的图片特征向量相同的特征模板,则将所述预处理后图片对应的图片特征向量添加至人脸数据库并向与人脸数据库连接的管理端发送通知信息。
在完成了人脸识别获取了用户身份信息后,即可根据用户身份信息与用户账号信息的对应列表来确定该用户的用户账号信息,从而根据该用户账号信息进行应用程序的登录。
在一实施例中,如图4所示,步骤S110包括:
S1121、通过对所述用户动作数据信息进行动作分解得到当前3D节点数据;
S1122、将所述当前3D节点数据根据预先设置的人体动作映射表进行数据转化,得到对应的当前动作数据集合;其中,所述人体动作映射表中存储有多种当前3D节点数据与当前动作数据的映射关系。
在本实施例中,通过VR设备作为采集终端可对人体做出的连续动作进行采集。通过VR设备实时扫描人体动作,得到当前动作对应的用户动作数据信息。之后VR设备将所述用户动作数据信息上传至服务器,由服务器对用户动作数据信息进行动作特征采集,从而得到当前动作数据集合。
即用户穿戴了VR设备后,一般针对需要采集的人体关节节点位置处都设置了传感器,这些节点均为关键传感器节点。当用户每作出一个动作,均能采集到与该动作对应的当前动作数据集合。
对所述用户动作数据信息进行动作分解时,是基于点云数据和匹配矩阵进行转化。利用所述用户动作数据信息进行动作分解时,是基于该用户动作数据信息所对应的原始的多帧彩色图像。
在一实施例中,步骤S1121之前还包括:
采集与所述当前动作特征数据对应的彩色图像;
将所述彩色图像进行灰度化处理,得到灰度图像。
在本实施例中,可以利用微软提供的Kinect相机的开发者工具Kinect FusionExplorer-D2D获取stl格式的当前动作特征数据。还可以利用Kinect相机的另一个开发者工具Kinect Explorer-D2D采集与所述当前特征数据对应的彩色图像。为了在最大程度保持图像的图像特征的前提下降低图像大小,可以通过最大发对所述彩色图像进行灰度化处理。即取所述彩色图像中每一像素点的R、G、B值中的最大值以作为该像素点的灰度值,从而将所述彩色图像进行灰度化处理,得到灰度图像。
在一实施例中,如图5所示,步骤S1121包括:
S11211、将所采集的当前动作特征数据转化为点云数据;
S11212、获取各关键传感器节点在灰度图像上的标记点所对应的屏幕坐标;
S11213、获取所述点云数据中的点云特征点,以组成点云特征点集;
S11214、获取点云特征点集中5个手指指尖的点云特征点,及与5个手指指尖的点云特征点对应的3D节点数据;
S11215、根据5个手指指尖的点云特征点对应的屏幕坐标矩阵,及根据5个手指指尖对应的3D节点数据相应三维坐标矩阵的逆矩阵,对应获取匹配矩阵;
S11216、获取各关键传感器节点在灰度图像上的标记点中去掉5个手指指尖的剩余标记点,以得到灰度图像上的剩余标记点集;
S11217、将所述剩余标记点集中各标记点对应的屏幕坐标乘以所述匹配矩阵,得到与所述当前动作特征数据对应的当前3D节点数据。
在本实施例中,为了更清楚的理解由当前动作特征数据通过动作分解得到3D节点数据的过程,下面以手部手势为例来说明。
当通过了微软提供的Kinect相机的开发者工具Kinect Fusion Explorer-D2D获取stl格式的当前动作特征数据后,可先通过Geomagic软件(即杰魔软件)将所述当前动作特征数据转化为点云数据。
之后,再获取灰度图像中各关键传感器节点在灰度图像上的标记点所对应的屏幕坐标,实现各关键传感器节点在灰度图像上的一一映射。
获取了点云数据后,可以采用Geomagic软件对点云数据对所述点云数据进行曲面拟合和法向量计算,得到曲面里点与点之间的法向量夹角以进行特征点提取。具体的,当曲面中该点与邻域点的法向量的夹角大于或者等于预先设置的夹角阈值,则该点是特征点;相反,如果,如果该点与邻域点的法向量的夹角小于夹角阈值,则该点不是特征点,直至点云数据中的所有特征点被提取出来,得到点云特征点。
然后,获取点云特征点集中5个手指指尖的点云特征点,及与5个手指指尖的点云特征点对应的3D节点数据,并获取彩色图像中5个手指指尖对应的屏幕坐标,根据由5个手指指尖的点云特征点对应的3D节点数据组成的三维坐标矩阵与由5个手指指尖对应的屏幕坐标组成的屏幕坐标矩阵获取匹配矩阵。
最后,将彩色图像中剩余的标记点通过乘以匹配矩阵,以得到对应的当前3D节点数据。通过获取匹配矩阵,能有效的将各关键传感器节点在彩色图像中的标记点转化为当前3D节点数据。
在一实施例中,步骤S11212包括:
根据所述灰度图像的最大灰度值和最小灰度值获取初始灰度阈值;
根据所述初始灰度阈值将所述灰度图像划分为目标区域和背景区域以组成分割图像,并获取与目标区域对应的第一平均灰度值、及与背景区域对应的第二平均灰度值;
获取各关键传感器节点在分割图像上的标记点所对应的屏幕坐标。
在本实施例中,先根据灰度图像的最大灰度值和最小灰度值获取初始灰度阈值;即T0=(fmax+fmin)/2,其中fmax为灰度图像的最大灰度值,fmin为灰度图像的最小灰度值。
然后,根据初始灰度阈值将灰度图像划分为目标区域和背景区域以组成分割图像,并获取与目标区域对应的第一平均灰度值、及与背景区域对应的第二平均灰度值。
最后,获取所述分割图像中各关键传感器节点在分割图像上的标记点所对应的屏幕坐标。
由于中各关键传感器节点在灰度图像上的标记点在经历灰度化后仍能保留在灰度图像上,此时求得各标记点对应的屏幕坐标参考如下公式(1)和公式(2):
Figure BDA0002356970710000091
Figure BDA0002356970710000092
其中,f(i,j)为灰度图像上点(i,j)的灰度值,N(i,j)为灰度图像上点(i,j)的权重,一般N(i,j)为f(i,j)的个数,W为灰度图像上宽度方向上的总像素点数,H为灰度图像上高度方向上的总像素点数。
在一实施例中,步骤S11215包括:
根据5个手指指尖的点云特征点,获取与5个手指指尖的点云特征点对应的3D节点数据,以组成三维坐标矩阵;
获取所述彩色图像中与5个手指指尖对应的屏幕坐标,以组成屏幕坐标矩阵;
将所述三维坐标矩阵的逆矩阵乘以所述屏幕坐标矩阵,得到对应的匹配矩阵。
在本实施例中,设彩色图像中5个手指指尖对应的屏幕坐标组成的屏幕坐标矩阵为A,且5个手指指尖的点云特征点对应的3D节点数据组成的三维坐标矩阵为B,则B-1A=H,其中H为匹配矩阵。以彩色图像中5个手指指尖对应的屏幕坐标矩阵,和5个手指指尖的点云特征点对应的3D节点数据组成的三维坐标矩阵为参考而计算的匹配矩阵能作为精准度较高的转化矩阵,有效将各关键传感器节点在彩色图像中的标记点转化为当前3D节点数据。
S120、调用并执行预先存储的标签转化策略,将所述虚拟现实特征数据所包括的用户账号信息、用户动作数据信息、用户声音数据信息分别进行标签转化,分别得到与所述用户账号信息对应的第一标签集,与所述用户动作数据信息对应的第二标签集,与所述用户声音数据信息对应的第三标签集;其中,所述标签转化策略中存储有将分别将用户账号信息、用户动作数据信息、用户声音数据信息对应转化为标签的子策略。
在本实施例中,获取了所述虚拟现实特征数据中所包括的用户账号信息、用户动作数据信息、用户声音数据信息,将上述信息对应转化为标签之后,即可组成初始的用户画像。
在一实施例中,如图6所示,步骤S120包括:
S121、获取所述标签转化策略中的用户账号信息转化策略,以将所述用户账号信息转化为第一标签集;
S122、获取所述标签转化策略中的用户动作数据信息转化策略,以将所述用户动作数据信息转化为第二标签集;
S123、获取所述标签转化策略中的用户声音数据信息转化策略,以将所述用户声音数据信息转化为第三标签集。
在本实施例中,预设的标签转化策略中包括多个子策略,分别为用户账号信息转化策略,用户动作数据信息转化策略、用户声音数据信息转化策略。其中,用户账号信息转化策略中包括了年龄转化子策略(用于将实际年龄转化为年龄标签)、职业转化子策略(用于将职业名称转化为职业标签);用户动作数据信息转化策略包括用户动作频率转化子策略(用于将动作频率的取值转化为用户动作标签);用户声音数据信息转化策略。例如包括用户说话频率转化子策略(用于将说话频率的取值转化为用户声音标签)。例如,预设的标签转化策略具体为:
A1)用户年龄为18岁以下,标签为青少年;用户年龄为18-40岁,标签为青年;用户年龄为40-55岁,标签为中年;用户年龄为55岁以上,标签为老年;
A2)用户职业则直接根据对应职业名称转化为相应的职业标签;
A3)用户的动作频率在10次/分钟以下,标签为安静;用户的动作频率在10-60次/分钟以下,标签为中等活跃;用户的动作频率在60次/分钟以下,标签为极为活跃;或者是用户的用户动作数据信息对应的当前相似度在2以下,则标签为安静;用户的用户动作数据信息对应的当前相似度在2以上,则标签为极为活跃;
A4)用户的说话频率在20词/分钟以下,标签为冷静;用户的说话频率在20-120词/分钟以下,标签为沉稳;用户的说话频率在120词/分钟以上,标签为善于交际。
S130、将所述第一标签集、所述第二标签集及所述第三标签集进行合并,得到与所述目标用户相对应的目标用户画像。
在本实施例中,也即将所述虚拟现实特征数据根据标签转化策略分别对应转化为所述第一标签集、第二标签集及第三标签集后,将所述第一标签集、第二标签集及第三标签集进行合并,得到与所述目标用户相对应的目标用户画像。通过上述方式,实现了基于虚拟现实特征数据,而无需用户消费行为数据就能建立较为可靠的用户画像。
其中,将所述第一标签集、第二标签集及第三标签集进行合并时,由于所述第一标签集、第二标签集及第三标签集均是标签集合,例如第一标签集={中年,律师},第二标签集={中等活跃},第三标签集={沉稳},此时将3个标签集进行合并时直接进行集合求并运算,即得到与所述目标用户对应的目标用户标签集。之后将目标用户标签集中每一标签自动设置对应的用户画像显示坐标区域,即得到与所述目标用户相对应的目标用户画像。
S140、将所述目标用户画像发送至与所述用户账号信息对应的目标区域以进行存储。
在本实施例中,在服务器中完成了对虚拟现实特征数据的用户画像特征提取得到所述目标用户画像,将该目标用户画像存储在服务器中与所述用户账号信息对应的目标区域,从而实现对用户画像数据的存储。
该方法实现了由虚拟现实采集终端采集目标用户的虚拟现实特征数据以转化为目标用户画像,在该目标用户的全景数据很少或缺失的情况下,也能基于虚拟现实特征数据准确的构建用户画像。
本发明实施例还提供一种基于VR数据的用户画像构建装置,该基于VR数据的用户画像构建装置用于执行前述基于VR数据的用户画像构建方法的任一实施例。具体地,请参阅图7,图7是本发明实施例提供的基于VR数据的用户画像构建装置的示意性框图。该基于VR数据的用户画像构建装置100可以配置于服务器中。
如图7所示,基于VR数据的用户画像构建装置100包括数据采集解析单元110、数据标签化单元120、画像数据合并单元130、用户画像存储单元140。
数据采集解析单元110,用于接收由虚拟现实采集终端所采集的目标用户的虚拟现实特征数据,并解析所述虚拟现实特征数据中包括的用户账号信息、用户动作数据信息、用户声音数据信息;所述用户动作数据信息为所述虚拟现实采集终端所采集的当前动作对应的当前动作数据集合,所述用户声音数据信息为所述虚拟现实采集终端所采集的当前语音信息对应的当前语音数据集合。
在本实施例中,当用户使用虚拟现实采集终端(即VR设备)而具体登录使用应用程序时(登录应用程序的过程中即登录成功后,虚拟现实采集终端与服务器均是保持通讯),一般需根据账户登录,也就产生了用户账号信息(包括性别、年龄、职业等信息)。由于虚拟现实采集终端即虚拟现实硬件设备,一般包括交互设备和声音设备,交互设备包括位置追踪仪、数据手套、三维鼠标、动作捕捉设备、眼动仪、力反馈设备以及其他交互设备,声音设备为三维的声音系统。例如,当虚拟现实采集终端为动作捕捉设备和声音采集设备时则是包括多个关键传感器和至少一个声音传感器(关键传感器一般采用加速度传感器或是姿态传感器,声音传感器采用咪头),用户穿戴虚拟现实采集终端时,虚拟现实采集终端中的多个关键传感器分布在用户身上的多个关键位置,如头部,左手手掌,左手肘关节,右手掌,右手肘关节,左膝关节,右膝关节等,声音传感器分布在头部以更接近用户嘴部。
而且在使用VR设备的过程中,经常会采集用户的动作数据,或是声音数据等。由动作数据或声音数据分析用户的用户画像也是有益的。例如某一用户A的用户动作数据信息中对应该用户A的动作频率为10次/分钟,表示该用户在使用VR设备的操作较少,是性格偏安静类用户;同样的,用户A的声音数据中对应该用户A的说话频率为20词/分钟,也表示该用户在使用VR设备的说话较少,是属于话少类用户。
通过接收由虚拟现实采集终端所采集的目标用户的虚拟现实特征数据,便于服务器以虚拟现实特征数据为数据基础来构建用户画像。
当服务器接收了所述虚拟现实特征数据后,可以获取虚拟现实特征数据中所包括的3个子数据表,上述3子数据表中分别存储有用户账号信息、用户动作数据信息、和用户声音数据信息。其中,用户账号信息包括性别、年龄、职业等信息;所述用户动作数据信息为所述虚拟现实采集终端所采集的当前动作对应的当前动作数据集合,所述用户声音数据信息为所述虚拟现实采集终端所采集的当前语音信息对应的当前语音数据集合。通过对各子数据表的数据提取,得到了用户账号信息、用户动作数据信息、和用户声音数据信息分别对应的具体数据。
在一实施例中,如图8所示,数据采集解析单元110包括:
预处理单元1111,用于获取当前人脸图片,对当前人脸图片依次进行灰度校正及噪声过滤,得到预处理后图片;
图片特征提取单元1112,用于通过卷积神经网络模型获取与所述预处理后图片对应的图片特征向量;
特征比对单元1113,用于将所述图片特征向量与人脸数据库中已存储的特征模板进行比对,判断人脸数据库中已存储的特征模板中是否存在与所述预处理后图片对应的图片特征向量相同的特征模板;
用户账号信息确定单元1114,用于若人脸数据库中已存储的特征模板中存在与所述预处理后图片对应的图片特征向量相同的特征模板,获取对应的用户账号信息;
用户账号信息解析单元1115,用于获取所述用户账号信息包括的年龄信息和职业信息。
在本实施例中,可通过VR设备的图像采集装置(如摄像头)来获取用户面部图像,从而进行人脸识别以快速获取与用户面部图像对应的用户账号信息以进行登录。
对于人脸图片的图像预处理是基于人脸检测结果,对图像进行处理并最终服务于特征提取的过程。服务器获取的原始图像(即当前人脸图片)由于受到各种条件的限制和随机干扰,往往不能直接使用,必须在图像处理的早期阶段对它进行灰度校正、噪声过滤等图像预处理。对于人脸图像而言,其预处理过程主要包括人脸图像的光线补偿、灰度变换、直方图均衡化、归一化、几何校正、滤波以及锐化等。
在获取图片的特征向量时,先获取与每一帧预处理后图片对应的像素矩阵,然后将每一帧预处理后图片对应的像素矩阵作为卷积神经网络模型中输入层的输入,得到多个特征图,之后将特征图输入池化层,得到每一特征图对应的最大值所对应一维行向量,最后将每一特征图对应的最大值所对应一维行向量输入至全连接层,得到与每一帧预处理后图片对应的图片特征向量。
由于服务器的人脸数据库中已存储的特征模板中存储了已采集的海量的人脸图片对应的特征向量,也即每一个人的人脸均对应唯一的特征向量,有了这些海量的特征模板为数据基础后,可以用来确定预处理后图片对应的一个或多个人,从而实现人脸识别。若人脸数据库中已存储的特征模板中不存在与所述预处理后图片对应的图片特征向量相同的特征模板,则将所述预处理后图片对应的图片特征向量添加至人脸数据库并向与人脸数据库连接的管理端发送通知信息。
在完成了人脸识别获取了用户身份信息后,即可根据用户身份信息与用户账号信息的对应列表来确定该用户的用户账号信息,从而根据该用户账号信息进行应用程序的登录。
在一实施例中,如图9所示,数据采集解析单元110包括:
当前3D节点数据获取单元1121,用于通过对所述用户动作数据信息进行动作分解得到当前3D节点数据;
当前动作数据集合获取单元1122,用于将所述当前3D节点数据根据预先设置的人体动作映射表进行数据转化,得到对应的当前动作数据集合;其中,所述人体动作映射表中存储有多种当前3D节点数据与当前动作数据的映射关系。
在本实施例中,通过VR设备作为采集终端可对人体做出的连续动作进行采集。通过VR设备实时扫描人体动作,得到当前动作对应的用户动作数据信息。之后VR设备将所述用户动作数据信息上传至服务器,由服务器对用户动作数据信息进行动作特征采集,从而得到当前动作数据集合。
即用户穿戴了VR设备后,一般针对需要采集的人体关节节点位置处都设置了传感器,这些节点均为关键传感器节点。当用户每作出一个动作,均能采集到与该动作对应的当前动作数据集合。
对所述用户动作数据信息进行动作分解时,是基于点云数据和匹配矩阵进行转化。利用所述用户动作数据信息进行动作分解时,是基于该用户动作数据信息所对应的原始的多帧彩色图像。
在一实施例中,数据采集解析单元110还包括:
彩色图像获取单元,用于采集与所述当前动作特征数据对应的彩色图像;
灰度化处理单元,用于将所述彩色图像进行灰度化处理,得到灰度图像。
在本实施例中,可以利用微软提供的Kinect相机的开发者工具Kinect FusionExplorer-D2D获取stl格式的当前动作特征数据。还可以利用Kinect相机的另一个开发者工具Kinect Explorer-D2D采集与所述当前特征数据对应的彩色图像。为了在最大程度保持图像的图像特征的前提下降低图像大小,可以通过最大发对所述彩色图像进行灰度化处理。即取所述彩色图像中每一像素点的R、G、B值中的最大值以作为该像素点的灰度值,从而将所述彩色图像进行灰度化处理,得到灰度图像。
在一实施例中,如图10所示,当前3D节点数据获取单元1121包括:
点云数据获取单元11211,用于将所采集的当前动作特征数据转化为点云数据;
第一屏幕坐标获取单元11212,用于获取各关键传感器节点在灰度图像上的标记点所对应的屏幕坐标;
点云特征点集获取单元11213,用于获取所述点云数据中的点云特征点,以组成点云特征点集;
手指指尖特征获取单元11214,用于获取点云特征点集中5个手指指尖的点云特征点,及与5个手指指尖的点云特征点对应的3D节点数据;
匹配矩阵获取单元11215,用于根据5个手指指尖的点云特征点对应的屏幕坐标矩阵,及根据5个手指指尖对应的3D节点数据相应三维坐标矩阵的逆矩阵,对应获取匹配矩阵;
标记点处理单元11216,用于获取各关键传感器节点在灰度图像上的标记点中去掉5个手指指尖的剩余标记点,以得到灰度图像上的剩余标记点集;
标记点数据转化单元11217,用于将所述剩余标记点集中各标记点对应的屏幕坐标乘以所述匹配矩阵,得到与所述当前动作特征数据对应的当前3D节点数据。
在本实施例中,为了更清楚的理解由当前动作特征数据通过动作分解得到3D节点数据的过程,下面以手部手势为例来说明。
当通过了微软提供的Kinect相机的开发者工具Kinect Fusion Explorer-D2D获取stl格式的当前动作特征数据后,可先通过Geomagic软件(即杰魔软件)将所述当前动作特征数据转化为点云数据。
之后,再获取灰度图像中各关键传感器节点在灰度图像上的标记点所对应的屏幕坐标,实现各关键传感器节点在灰度图像上的一一映射。
获取了点云数据后,可以采用Geomagic软件对点云数据对所述点云数据进行曲面拟合和法向量计算,得到曲面里点与点之间的法向量夹角以进行特征点提取。具体的,当曲面中该点与邻域点的法向量的夹角大于或者等于预先设置的夹角阈值,则该点是特征点;相反,如果,如果该点与邻域点的法向量的夹角小于夹角阈值,则该点不是特征点,直至点云数据中的所有特征点被提取出来,得到点云特征点。
然后,获取点云特征点集中5个手指指尖的点云特征点,及与5个手指指尖的点云特征点对应的3D节点数据,并获取彩色图像中5个手指指尖对应的屏幕坐标,根据由5个手指指尖的点云特征点对应的3D节点数据组成的三维坐标矩阵与由5个手指指尖对应的屏幕坐标组成的屏幕坐标矩阵获取匹配矩阵。
最后,将彩色图像中剩余的标记点通过乘以匹配矩阵,以得到对应的当前3D节点数据。通过获取匹配矩阵,能有效的将各关键传感器节点在彩色图像中的标记点转化为当前3D节点数据。
在一实施例中,第一屏幕坐标获取单元11212包括:
初始灰度阈值获取单元,用于根据所述灰度图像的最大灰度值和最小灰度值获取初始灰度阈值;
背景分离单元,用于根据所述初始灰度阈值将所述灰度图像划分为目标区域和背景区域以组成分割图像,并获取与目标区域对应的第一平均灰度值、及与背景区域对应的第二平均灰度值;
第二屏幕坐标获取单元,用于获取各关键传感器节点在分割图像上的标记点所对应的屏幕坐标。
在本实施例中,先根据灰度图像的最大灰度值和最小灰度值获取初始灰度阈值;即T0=(fmax+fmin)/2,其中fmax为灰度图像的最大灰度值,fmin为灰度图像的最小灰度值。
然后,根据初始灰度阈值将灰度图像划分为目标区域和背景区域以组成分割图像,并获取与目标区域对应的第一平均灰度值、及与背景区域对应的第二平均灰度值。
最后,获取所述分割图像中各关键传感器节点在分割图像上的标记点所对应的屏幕坐标。
由于中各关键传感器节点在灰度图像上的标记点在经历灰度化后仍能保留在灰度图像上,此时求得各标记点对应的屏幕坐标参考如上公式(1)和公式(2)。
在一实施例中,匹配矩阵获取单元11215包括:
三维坐标矩阵获取单元,用于根据5个手指指尖的点云特征点,获取与5个手指指尖的点云特征点对应的3D节点数据,以组成三维坐标矩阵;
屏幕坐标矩阵获取单元,用于获取所述彩色图像中与5个手指指尖对应的屏幕坐标,以组成屏幕坐标矩阵;
匹配矩阵计算单元,用于将所述三维坐标矩阵的逆矩阵乘以所述屏幕坐标矩阵,得到对应的匹配矩阵。
在本实施例中,设彩色图像中5个手指指尖对应的屏幕坐标组成的屏幕坐标矩阵为A,且5个手指指尖的点云特征点对应的3D节点数据组成的三维坐标矩阵为B,则B-1A=H,其中H为匹配矩阵。以彩色图像中5个手指指尖对应的屏幕坐标矩阵,和5个手指指尖的点云特征点对应的3D节点数据组成的三维坐标矩阵为参考而计算的匹配矩阵能作为精准度较高的转化矩阵,有效将各关键传感器节点在彩色图像中的标记点转化为当前3D节点数据。
数据标签化单元120,用于调用并执行预先存储的标签转化策略,将所述虚拟现实特征数据所包括的用户账号信息、用户动作数据信息、用户声音数据信息分别进行标签转化,分别得到与所述用户账号信息对应的第一标签集,与所述用户动作数据信息对应的第二标签集,与所述用户声音数据信息对应的第三标签集;其中,所述标签转化策略中存储有将分别将用户账号信息、用户动作数据信息、用户声音数据信息对应转化为标签的子策略。
在本实施例中,获取了所述虚拟现实特征数据中所包括的用户账号信息、用户动作数据信息、用户声音数据信息,将上述信息对应转化为标签之后,即可组成初始的用户画像。
在一实施例中,如图11所示,数据标签化单元120包括:
第一标签转化单元121,用于获取所述标签转化策略中的用户账号信息转化策略,以将所述用户账号信息转化为第一标签集;
第二标签转化单元122,用于获取所述标签转化策略中的用户动作数据信息转化策略,以将所述用户动作数据信息转化为第二标签集;
第三标签转化单元123,用于获取所述标签转化策略中的用户声音数据信息转化策略,以将所述用户声音数据信息转化为第三标签集。
在本实施例中,预设的标签转化策略中包括多个子策略,分别为用户账号信息转化策略,用户动作数据信息转化策略、用户声音数据信息转化策略。其中,用户账号信息转化策略中包括了年龄转化子策略(用于将实际年龄转化为年龄标签)、职业转化子策略(用于将职业名称转化为职业标签);用户动作数据信息转化策略包括用户动作频率转化子策略(用于将动作频率的取值转化为用户动作标签);用户声音数据信息转化策略。例如包括用户说话频率转化子策略(用于将说话频率的取值转化为用户声音标签)。
画像数据合并单元130,用于将所述第一标签集、所述第二标签集及所述第三标签集进行合并,得到与所述目标用户相对应的目标用户画像。
在本实施例中,也即将所述虚拟现实特征数据根据标签转化策略分别对应转化为所述第一标签集、第二标签集及第三标签集,将所述第一标签集、第二标签集及第三标签集进行合并,得到与所述目标用户相对应的目标用户画像。通过上述方式,实现了基于虚拟现实特征数据,而无需用户消费行为数据就能建立较为可靠的用户画像。
其中,将所述第一标签集、第二标签集及第三标签集进行合并时,由于所述第一标签集、第二标签集及第三标签集均是标签集合,例如第一标签集={中年,律师},第二标签集={中等活跃},第三标签集={沉稳},此时将3个标签集进行合并时直接进行集合求并运算,即得到与所述目标用户对应的目标用户标签集。之后将目标用户标签集中每一标签自动设置对应的用户画像显示坐标区域,即得到与所述目标用户相对应的目标用户画像。
用户画像存储单元140,用于将所述目标用户画像发送至与所述用户账号信息对应的目标区域以进行存储。
在本实施例中,在服务器中完成了对虚拟现实特征数据的用户画像特征提取得到所述目标用户画像,将该目标用户画像存储在服务器中与所述用户账号信息对应的目标区域,从而实现对用户画像数据的存储。
该装置实现了由虚拟现实采集终端采集目标用户的虚拟现实特征数据以转化为目标用户画像,在该目标用户的全景数据很少或缺失的情况下,也能基于虚拟现实特征数据准确的构建用户画像。
上述基于VR数据的用户画像构建装置可以实现为计算机程序的形式,该计算机程序可以在如图12所示的计算机设备上运行。
请参阅图12,图12是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图12,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行基于VR数据的用户画像构建方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行基于VR数据的用户画像构建方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图12中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现本发明实施例公开的基于VR数据的用户画像构建方法。
本领域技术人员可以理解,图12中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图12所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现本发明实施例公开的基于VR数据的用户画像构建方法。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种基于VR数据的用户画像构建方法,其特征在于,包括:
接收由虚拟现实采集终端所采集的目标用户的虚拟现实特征数据,并解析所述虚拟现实特征数据中包括的用户账号信息、用户动作数据信息、用户声音数据信息;所述用户动作数据信息为所述虚拟现实采集终端所采集的当前动作对应的当前动作数据集合,所述用户声音数据信息为所述虚拟现实采集终端所采集的当前语音信息对应的当前语音数据集合;
调用并执行预先存储的标签转化策略,将所述虚拟现实特征数据所包括的用户账号信息、用户动作数据信息、用户声音数据信息分别进行标签转化,分别得到与所述用户账号信息对应的第一标签集,与所述用户动作数据信息对应的第二标签集,与所述用户声音数据信息对应的第三标签集;其中,所述标签转化策略中存储有将分别将用户账号信息、用户动作数据信息、用户声音数据信息对应转化为标签的子策略;
将所述第一标签集、所述第二标签集及所述第三标签集进行合并,得到与所述目标用户相对应的目标用户画像;以及
将所述目标用户画像发送至与所述用户账号信息对应的目标区域以进行存储。
2.根据权利要求1所述的基于VR数据的用户画像构建方法,其特征在于,所述解析所述虚拟现实特征数据中包括的用户账号信息,包括:
获取当前人脸图片,对当前人脸图片依次进行灰度校正及噪声过滤,得到预处理后图片;
通过卷积神经网络模型获取与所述预处理后图片对应的图片特征向量;
将所述图片特征向量与人脸数据库中已存储的特征模板进行比对,判断人脸数据库中已存储的特征模板中是否存在与所述预处理后图片对应的图片特征向量相同的特征模板;
若人脸数据库中已存储的特征模板中存在与所述预处理后图片对应的图片特征向量相同的特征模板,获取对应的用户账号信息;
获取所述用户账号信息包括的年龄信息和职业信息。
3.根据权利要求1所述的基于VR数据的用户画像构建方法,其特征在于,所述解析所述虚拟现实特征数据中包括的用户动作数据信息,包括:
通过对所述用户动作数据信息进行动作分解得到当前3D节点数据;
将所述当前3D节点数据根据预先设置的人体动作映射表进行数据转化,得到对应的当前动作数据集合;其中,所述人体动作映射表中存储有多种当前3D节点数据与当前动作数据的映射关系。
4.根据权利要求3所述的基于VR数据的用户画像构建方法,其特征在于,所述通过对所述用户动作数据信息进行动作分解得到当前3D节点数据之前,还包括:
采集与所述当前动作特征数据对应的彩色图像;
将所述彩色图像进行灰度化处理,得到灰度图像。
5.根据权利要求3所述的基于VR数据的用户画像构建方法,其特征在于,所述通过对所述用户动作数据信息进行动作分解得到当前3D节点数据,包括:
将所采集的当前动作特征数据转化为点云数据;
获取所述虚拟现实采集终端各关键传感器节点在灰度图像上的标记点所对应的屏幕坐标;
获取所述点云数据中的点云特征点,以组成点云特征点集;
获取点云特征点集中5个手指指尖的点云特征点,及与5个手指指尖的点云特征点对应的3D节点数据;
根据5个手指指尖的点云特征点对应的屏幕坐标矩阵,及根据5个手指指尖对应的3D节点数据相应三维坐标矩阵的逆矩阵,对应获取匹配矩阵;
获取各关键传感器节点在灰度图像上的标记点中去掉5个手指指尖的剩余标记点,以得到灰度图像上的剩余标记点集;
将所述剩余标记点集中各标记点对应的屏幕坐标乘以所述匹配矩阵,得到与所述当前动作特征数据对应的当前3D节点数据。
6.根据权利要求5所述的基于VR数据的用户画像构建方法,其特征在于,所述根据5个手指指尖的点云特征点对应的屏幕坐标矩阵,及根据5个手指指尖对应的3D节点数据相应三维坐标矩阵的逆矩阵,对应获取匹配矩阵,包括:
根据5个手指指尖的点云特征点,获取与5个手指指尖的点云特征点对应的3D节点数据,以组成三维坐标矩阵;
获取所述彩色图像中与5个手指指尖对应的屏幕坐标,以组成屏幕坐标矩阵;
将所述三维坐标矩阵的逆矩阵乘以所述屏幕坐标矩阵,得到对应的匹配矩阵。
7.一种基于VR数据的用户画像构建装置,其特征在于,包括:
数据采集解析单元,用于接收由虚拟现实采集终端所采集的目标用户的虚拟现实特征数据,并解析所述虚拟现实特征数据中包括的用户账号信息、用户动作数据信息、用户声音数据信息;所述用户动作数据信息为所述虚拟现实采集终端所采集的当前动作对应的当前动作数据集合,所述用户声音数据信息为所述虚拟现实采集终端所采集的当前语音信息对应的当前语音数据集合;
数据标签化单元,用于调用并执行预先存储的标签转化策略,将所述虚拟现实特征数据所包括的用户账号信息、用户动作数据信息、用户声音数据信息分别进行标签转化,分别得到与所述用户账号信息对应的第一标签集,与所述用户动作数据信息对应的第二标签集,与所述用户声音数据信息对应的第三标签集;其中,所述标签转化策略中存储有将分别将用户账号信息、用户动作数据信息、用户声音数据信息对应转化为标签的子策略;
画像数据合并单元,用于将所述第一标签集、所述第二标签集及所述第三标签集进行合并,得到与所述目标用户相对应的目标用户画像;以及
用户画像存储单元,用于将所述目标用户画像发送至与所述用户账号信息对应的目标区域以进行存储。
8.根据权利要求7所述的基于VR数据的用户画像构建装置,其特征在于,所述数据采集解析单元,包括:
预处理单元,用于获取当前人脸图片,对当前人脸图片依次进行灰度校正及噪声过滤,得到预处理后图片;
图片特征提取单元,用于通过卷积神经网络模型获取与所述预处理后图片对应的图片特征向量;
特征比对单元,用于将所述图片特征向量与人脸数据库中已存储的特征模板进行比对,判断人脸数据库中已存储的特征模板中是否存在与所述预处理后图片对应的图片特征向量相同的特征模板;
用户账号信息确定单元,用于若人脸数据库中已存储的特征模板中存在与所述预处理后图片对应的图片特征向量相同的特征模板,获取对应的用户账号信息;
用户账号信息解析单元,用于获取所述用户账号信息包括的年龄信息和职业信息。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述的基于VR数据的用户画像构建方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至6任一项所述的基于VR数据的用户画像构建方法。
CN202010010486.2A 2020-01-06 2020-01-06 基于vr数据的用户画像构建方法、装置及计算机设备 Active CN111210275B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010010486.2A CN111210275B (zh) 2020-01-06 2020-01-06 基于vr数据的用户画像构建方法、装置及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010010486.2A CN111210275B (zh) 2020-01-06 2020-01-06 基于vr数据的用户画像构建方法、装置及计算机设备

Publications (2)

Publication Number Publication Date
CN111210275A true CN111210275A (zh) 2020-05-29
CN111210275B CN111210275B (zh) 2023-07-21

Family

ID=70785625

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010010486.2A Active CN111210275B (zh) 2020-01-06 2020-01-06 基于vr数据的用户画像构建方法、装置及计算机设备

Country Status (1)

Country Link
CN (1) CN111210275B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112365521A (zh) * 2020-12-08 2021-02-12 萱闱(北京)生物科技有限公司 终端设备的速度监测方法、装置、介质和计算设备
CN113076436A (zh) * 2021-04-09 2021-07-06 成都天翼空间科技有限公司 一种vr设备主题背景推荐方法及系统
CN113656125A (zh) * 2021-07-30 2021-11-16 阿波罗智联(北京)科技有限公司 一种虚拟助手生成的方法、装置及电子设备

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107124653A (zh) * 2017-05-16 2017-09-01 四川长虹电器股份有限公司 电视用户画像的构建方法
CN107863108A (zh) * 2017-11-16 2018-03-30 百度在线网络技术(北京)有限公司 信息输出方法和装置
CN108647349A (zh) * 2018-05-15 2018-10-12 优视科技有限公司 一种内容推荐方法、装置和终端设备
CN109086706A (zh) * 2018-07-24 2018-12-25 西北工业大学 应用于人机协作中的基于分割人体模型的动作识别方法
CN109242537A (zh) * 2018-08-14 2019-01-18 平安普惠企业管理有限公司 广告投放方法、装置、计算机设备及存储介质
CN109359244A (zh) * 2018-10-30 2019-02-19 中国科学院计算技术研究所 一种个性化信息推荐方法和装置
CN109918162A (zh) * 2019-02-28 2019-06-21 集智学园(北京)科技有限公司 一种可学习的海量信息高维图形交互式展示方法
CN109918409A (zh) * 2019-03-04 2019-06-21 珠海格力电器股份有限公司 一种设备画像构建方法、装置、存储介质及设备
CN109933699A (zh) * 2019-03-05 2019-06-25 中国科学院文献情报中心 一种学术画像模型的构建方法及装置
CN110070393A (zh) * 2019-06-19 2019-07-30 成都大象分形智能科技有限公司 基于云端人工智能的线下车载广告交互投放系统
CN110069702A (zh) * 2019-03-15 2019-07-30 深圳壹账通智能科技有限公司 用户行为数据分析方法、装置、计算机设备及存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107124653A (zh) * 2017-05-16 2017-09-01 四川长虹电器股份有限公司 电视用户画像的构建方法
CN107863108A (zh) * 2017-11-16 2018-03-30 百度在线网络技术(北京)有限公司 信息输出方法和装置
CN108647349A (zh) * 2018-05-15 2018-10-12 优视科技有限公司 一种内容推荐方法、装置和终端设备
CN109086706A (zh) * 2018-07-24 2018-12-25 西北工业大学 应用于人机协作中的基于分割人体模型的动作识别方法
CN109242537A (zh) * 2018-08-14 2019-01-18 平安普惠企业管理有限公司 广告投放方法、装置、计算机设备及存储介质
CN109359244A (zh) * 2018-10-30 2019-02-19 中国科学院计算技术研究所 一种个性化信息推荐方法和装置
CN109918162A (zh) * 2019-02-28 2019-06-21 集智学园(北京)科技有限公司 一种可学习的海量信息高维图形交互式展示方法
CN109918409A (zh) * 2019-03-04 2019-06-21 珠海格力电器股份有限公司 一种设备画像构建方法、装置、存储介质及设备
CN109933699A (zh) * 2019-03-05 2019-06-25 中国科学院文献情报中心 一种学术画像模型的构建方法及装置
CN110069702A (zh) * 2019-03-15 2019-07-30 深圳壹账通智能科技有限公司 用户行为数据分析方法、装置、计算机设备及存储介质
CN110070393A (zh) * 2019-06-19 2019-07-30 成都大象分形智能科技有限公司 基于云端人工智能的线下车载广告交互投放系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHUNLIN ZHONG: "Research on Electricity Consumption Behavior of Electric Power Users Based on TagTechnology and Clustering Algorithm" *
何娟: "基于用户个人及群体画像相结合的图书个性化推荐应用研究" *
郑正广;冯必成;赵明月;: "基于大数据技术的腾讯王卡用户画像构建研究" *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112365521A (zh) * 2020-12-08 2021-02-12 萱闱(北京)生物科技有限公司 终端设备的速度监测方法、装置、介质和计算设备
CN113076436A (zh) * 2021-04-09 2021-07-06 成都天翼空间科技有限公司 一种vr设备主题背景推荐方法及系统
CN113656125A (zh) * 2021-07-30 2021-11-16 阿波罗智联(北京)科技有限公司 一种虚拟助手生成的方法、装置及电子设备

Also Published As

Publication number Publication date
CN111210275B (zh) 2023-07-21

Similar Documents

Publication Publication Date Title
JP6799302B2 (ja) 全身測定値抽出のためのシステムおよび方法
CN107066983B (zh) 一种身份验证方法及装置
US9020250B2 (en) Methods and systems for building a universal dress style learner
WO2018228218A1 (zh) 身份识别方法、计算设备及存储介质
CN111210275B (zh) 基于vr数据的用户画像构建方法、装置及计算机设备
US10891473B2 (en) Method and device for use in hand gesture recognition
EP3811337A1 (en) System for predicting articulated object feature location
WO2021098147A1 (zh) Vr体感数据检测方法、装置、计算机设备及存储介质
CN110688929B (zh) 一种人体骨架关节点定位方法及装置
US20170103564A1 (en) Image generating apparatus, image generating system, and non-transitory computer-readable storage medium
EP3685288B1 (en) Apparatus, method and computer program product for biometric recognition
CN111008935B (zh) 一种人脸图像增强方法、装置、系统及存储介质
US10198694B2 (en) Static posture based person identification
US20170365084A1 (en) Image generating apparatus and image generating method
US10824223B2 (en) Determination apparatus and determination method
JP2018073204A (ja) アクション指示プログラム、アクション指示方法及び画像生成装置
CN111985360A (zh) 一种人脸识别的方法、装置、设备和介质
CN111353336A (zh) 图像处理方法、装置及设备
CN110442783A (zh) 基于人脸识别的信息推送方法、装置、计算机设备
CN113392741A (zh) 视频片段提取方法、装置、电子设备及存储介质
CN102783174B (zh) 图像处理设备、内容传递系统、图像处理方法和程序
JP2022003526A (ja) 情報処理装置、検出システム、情報処理方法、及びプログラム
CN112714337A (zh) 视频处理方法、装置、电子设备和存储介质
CN111783677A (zh) 人脸识别方法、装置、服务器和计算机可读介质
CN111461971B (zh) 图像处理方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant