CN110569714A - 获取用户满意度的方法、服务器及计算机可读存储介质 - Google Patents
获取用户满意度的方法、服务器及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110569714A CN110569714A CN201910664266.9A CN201910664266A CN110569714A CN 110569714 A CN110569714 A CN 110569714A CN 201910664266 A CN201910664266 A CN 201910664266A CN 110569714 A CN110569714 A CN 110569714A
- Authority
- CN
- China
- Prior art keywords
- user
- obtaining
- satisfaction
- expression
- attention content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000008859 change Effects 0.000 claims abstract description 82
- 230000008921 facial expression Effects 0.000 claims abstract description 45
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 38
- 230000014509 gene expression Effects 0.000 claims description 114
- 238000004590 computer program Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims 1
- 238000004891 communication Methods 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 26
- 230000008569 process Effects 0.000 description 4
- 230000002996 emotional effect Effects 0.000 description 3
- 206010029897 Obsessive thoughts Diseases 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 241000989913 Gunnera petaloidea Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0203—Market surveys; Market polls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Development Economics (AREA)
- Multimedia (AREA)
- Accounting & Taxation (AREA)
- Entrepreneurship & Innovation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Data Mining & Analysis (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例涉及通信技术领域,公开了一种获取用户满意度的方法、服务器及计算机可读存储介质。本发明中,一种获取用户满意度的方法,包括:根据用户的眼球焦点特征,获取用户的视线针对关注内容的停留时长;获取在停留时长内,用户的面部表情特征的变化信息;根据变化信息,获取用户对关注内容的满意度。本发明实施例还提供了另一种获取用户满意度的方法、服务器及计算机可读存储介质;可以获取到大量的用户数据,有利于对用户当前关注的网页内容进行客观分析,提高获取用户满意度的效率。
Description
技术领域
本发明实施例涉及通信技术领域,特别涉及一种获取用户满意度的方法、服务器及计算机可读存储介质。
背景技术
现有技术中,一般通过发送调查问券的形式,了解用户对当前关注的网页内容的评价,再进一步根据用户的评价,分析得到用户对当前关注的网页内容的满意度。
然而,发明人发现相关技术中至少存在如下问题:实际上,很多用户并不会对接收到的调查问券进行反馈,导致无法获取到大量的用户数据,不利于对用户当前关注的网页内容进行客观分析,调查满意度的效率低下。
发明内容
本发明实施方式的目的在于提供一种获取用户满意度的方法、服务器及计算机可读存储介质,使得可以获取到大量的用户数据,有利于对用户当前关注的网页内容进行客观分析,提高获取用户满意度的效率。
为解决上述技术问题,本发明的实施方式提供了一种获取用户满意度的方法,包括:根据用户的眼球焦点特征,获取用户的视线针对关注内容的停留时长;获取在停留时长内,用户的面部表情特征的变化信息;根据变化信息,获取用户对关注内容的满意度。
本发明的实施方式还提供了一种获取用户满意度的方法,包括:采集用户的眼球焦点特征和面部表情特征;根据眼球焦点特征,获取用户的关注内容;根据面部表情特征,获取用户对关注内容的满意度。
本发明的实施方式还提供了一种服务器,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如上述的获取用户满意度的方法。
本发明的实施方式还提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时实现上述的获取用户满意度的方法。
本发明实施方式相对于现有技术而言,提供的一种获取用户满意度的方法,通过根据用户的眼球焦点特征,获取用户的视线针对关注内容的停留时长;获取在停留时长内,用户的面部表情特征的变化信息;根据变化信息,获取用户对关注内容的满意度。由于可以通过用户的面部表情特征的变化信息获取到用户对关注内容的满意度,因此,使得可以无需担心用户是否会对调查问券进行反馈,甚至在根本无需发送调查问券的情况下,仍然可以获取到大量的用户数据,有利于对用户当前关注的网页内容进行客观分析,提高获取用户满意度的效率。
另外,根据面部表情特征,获取用户对关注内容的满意度,包括:根据眼球焦点特征,获取用户的视线针对关注内容的停留时长;获取在停留时长内,面部表情特征的变化信息;根据变化信息,获取用户对关注内容的满意度。通过根据用户的视线针对关注内容的停留时长和面部表情特征的变化信息,获取用户对关注内容的满意度,可以使得在提高获取用户满意度的效率的同时,还可以提高获取用户对关注内容的满意度的准确性。
另外,根据变化信息,获取用户对关注内容的满意度,包括:根据变化信息,获取用户的表情每一次发生变化时对应的时间节点;识别在时间节点下,用户的表情对应的表情类型;根据表情类型,获取用户的表情对应的程度值;其中,程度值用于表征在表情类型下的标准表情与用户的表情的变化幅度值;根据程度值,获取用户对关注内容的满意度。通过根据程度值,获取用户对关注内容的满意度,可以使得得到的满意度是将相同类型的表情存在不同程度的差异考虑在内而得到的,因此,在提高获取用户满意度的效率的同时,还可以进一步提高获取用户对关注内容的满意度的准确性。
另外,根据眼球焦点特征,获取用户的关注内容,包括:根据眼球焦点特征,获取用户的视线方向和视线角度;根据视线方向和视线角度,确定目标区域;根据目标区域,获取用户的关注内容。通过提供了一种具体的根据眼球焦点特征,获取用户的关注内容的实现方式,可以使得实现根据眼球焦点特征,获取用户的关注内容得以灵活多变地实现。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是根据本发明第一实施方式提供的一种获取用户满意度的方法的流程图;
图2是根据本发明第二实施方式提供的一种获取用户满意度的方法的流程图;
图3是根据本发明第三实施方式提供的一种获取用户满意度的方法的流程图;
图4是根据本发明第四实施方式提供的一种服务器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本发明的第一实施方式涉及一种获取用户满意度的方法。本实施方式中,通过根据用户的眼球焦点特征,获取用户的视线针对关注内容的停留时长;获取在停留时长内,用户的面部表情特征的变化信息;根据变化信息,获取用户对关注内容的满意度。由于可以通过用户的面部表情特征的变化信息获取到用户对关注内容的满意度,因此,使得可以无需担心用户是否会对调查问券进行反馈,甚至在根本无需发送调查问券的情况下,仍然可以获取到大量的用户数据,有利于对用户当前关注的网页内容进行客观分析,提高获取用户满意度的效率。
下面对本实施方式的获取用户满意度的方法的实现细节进行具体的说明,以下内容仅为方便理解提供的实现细节,并非实施本方案的必须。
本实施方式中的获取用户满意度的方法的流程如图1所示,包括:
步骤101,根据用户的眼球焦点特征,获取用户的视线针对关注内容的停留时长。
在一个例子中,可以根据用户的眼球焦点特征,追踪用户的视线在各关注内容的变化的时间差,得到用户的视线针对关注内容的停留时长。比如说,用户的视线在关注内容A停留的时间信息为2019年6月19日14:14:43,然后检测到用户的视线从关注内容A直接转移到关注内容B的时间信息为2019年6月19日14:15:43,则用户的视线针对关注内容A的停留时长为:1分钟。
步骤102,获取在停留时长内,用户的面部表情特征的变化信息。
此处结合步骤101中的例子进行说明:在本步骤中,可以获取在2019年6月19日14:14:43时,用户的面部表情特征,比如为难过;并获取在2019年6月19日14:15:43时,用户的面部表情特征,比如为高兴,则,面部表情特征的变化信息可以表示为:难过→高兴。
当然,在上述例子中,还可以实时获取从2019年6月19日14:14:43时开始,至2019年6月19日14:15:43为止的用户的面部表情特征,来得到面部表情特征的变化信息;此外,还可以从2019年6月19日14:14:43时开始,至2019年6月19日14:15:43为止,每隔3秒获取一次面部表情特征的方式,来得到面部表情特征的变化信息,本实施方式对此不作具体限定。
在一个例子中,可以通过数组表示在停留时长内的面部表情特征的变化信息。比如说,若面部表情特征的变化信息为:难过→高兴→高兴→难过。其中,难过用数值1表示,高兴用数值2表示,那么服务器可以通过读取[1221]的方式得到面部表情特征的变化信息。这样做,可以提高对面部表情特征的变化信息的读取效率。
步骤103,根据变化信息,获取用户对关注内容的满意度。
在一个例子中,用户对关注内容的满意度可以通过如下公式表示:用户对关注内容的满意度=停留时长*变化信息表征的数值*满意度系数。结果的数值越大,则表明用户对关注内容的满意度越高。其中,可以针对用户的历史满意度数据,通过机器学习的方式,来得到用户的满意度系数。
在一个例子中,还可以根据保存的变化信息与满意度的对应关系,以变化信息作为输入,以满意度作为输出进行神经网络模型的训练。这样做,还可以将变化信息输入训练好的神经网络模型,来得到用户对关注内容的满意度。
在一个例子中,还可以根据变化信息,生成用户的表情变化曲线;将用户的表情变化曲线与标准表情变化曲线进行对比,获取用户对关注内容的满意度。比如说,可以通过将用户的表情变化曲线与标准表情变化曲线进行对比,计算表情变化曲线与标准表情变化曲线的相似度,当相似度小于预设相似度时,可以确定用户对关注内容的满意度较高;否则,可以确定用户对关注内容的满意度较低。也就是说,在该例子中,用户对关注内容的满意度可以通过如下公式表示:用户对关注内容的满意度=停留时长*变化信息表征的数值*满意度系数*相似度。
其中,可以通过计算某一时间信息下的表情变化曲线和标准表情变化曲线的欧式距离、或者计算余弦相似度等方法得到相似度,本实施方式中并不对相似度的计算方法进行任何限定。
其中,这里所说的标准表情变化曲线,可以为统一的标准表情变化曲线,在这种情况下,对于不同的用户,所使用的标准表情变化曲线相同:还可以是根据用户的历史表情数据,生成的针对用户的标准表情变化曲线,在这种情况下,对于不同的用户,所使用的标准表情变化曲线不同。可以理解,通过将生成的针对用户的标准表情变化曲线,与根据变化信息生成的用户的表情变化曲线进行对比,可以进一步提高获取用户对关注内容的满意度的准确性。
其中,可以通过如下方式生成针对用户标准表情变化曲线:可以保存针对用户的各变化信息与满意度的对应关系,对于满意度相同的数据,可以取所有变化信息的平均值的方式,得到标准表情变化曲线。比如说,满意度为5时对应的变化信息为[1,3,1],另一个满意度也为5时对应的变化信息为[2,1,2],其中的数字1、2、3分别表示不同的面部表情特征,那么,将计算得到的[1,3,1]和[2,1,2]的平均值,即[1.5,2,1.5]作为标准表情变化曲线。
同理,可以通过类似的方式生成统一的标准表情变化曲线,即:可以保存各用户的变化信息与满意度的对应关系,对于满意度相同的数据,可以取所有变化信息的平均值的方式,得到统一的标准表情变化曲线。为避免重复,此处不再进行举例说明。
进一步的,还可以根据一些常见的表情比如愤怒、厌恶、恐惧、高兴、难过、惊喜、正常(无情绪波动)等,分别绘制与上述表情各自对应的标准表情变化曲线,这样做,可以进一步提高获取用户对关注内容的满意度的准确性。
不难发现,本实施方式提供的一种获取用户满意度的方法,通过根据眼球焦点特征,获取用户的视线针对关注内容的停留时长;获取在停留时长内,面部表情特征的变化信息;根据变化信息,获取用户对关注内容的满意度,可以使得在提高获取用户满意度的效率的同时,还可以提高获取用户对关注内容的满意度的准确性。
另外,用户通过调查问卷进行反馈的方式,由于用户填写调查问卷时可能会受心情影响,例如由于太忙而随便填写,或者在填写时的看法与当时关注时的看法不一致。针对该问题,本实施例提供的一种获取用户满意度的方法,由于获取用户满意度的方式,是直接根据用户在注视关注内容时的表情变化情况,因此,避免了用户在填写问卷调查时的一些主观因素,从而使所获得的满意度更加客观。
本发明的第二实施方式涉及一种获取用户满意度的方法。本实施方式是在第一实施方式的基础上作出的改进,具体改进之处在于:在本实施方式中,根据变化信息,获取用户对关注内容的满意度,包括:根据变化信息,获取用户的表情每一次发生变化时对应的时间节点;识别在时间节点下,用户的表情对应的表情类型;根据表情类型,获取用户的表情对应的程度值;其中,程度值用于表征在表情类型下的标准表情与用户的表情的变化幅度值;根据程度值,获取用户对关注内容的满意度。通过根据程度值,获取用户对关注内容的满意度,可以使得得到的满意度是将相同类型的表情存在不同程度的差异考虑在内而得到的,因此,在提高获取用户满意度的效率的同时,还可以进一步提高获取用户对关注内容的满意度的准确性。
本实施方式中的获取用户满意度的方法的流程如图2所示,包括:
步骤201,根据眼球焦点特征,获取用户的视线针对关注内容的停留时长。
步骤202,获取在停留时长内,用户的面部表情特征的变化信息。
步骤203,根据变化信息,获取用户的表情每一次发生变化时对应的时间节点。
在一个例子中,变化信息为:表情1→表情2→表情3,则可以获取由表情1到表情2时对应的时间节点(比如2019年6月19日16:21:10),以及由表情2到表情3时对应的时间节点(比如2019年6月19日16:23:38)。
步骤204,识别在时间节点下,用户的表情对应的表情类型。
其中,这里所说的表情类型可以为但不限于:愤怒、厌恶、恐惧、高兴、难过、惊喜等。
以步骤203中的例子来说,表情1对应的表情类型可以为:难过;表情2对应的表情类型可以为正常(无情绪波动);表情3对应的表情类型可以为:高兴。
步骤205,根据表情类型,获取用户的表情对应的程度值。
其中,程度值用于表征在表情类型下的标准表情与用户的表情的变化幅度值。
在一个例子中,可以用数字代表程度值,程度值越大,表示在该表情类型下的表情幅度越大。比如说,若表情类型为高兴,“高兴”的程度值可以用数字1-5表示,1表示平静,3表示微笑,5表示哈哈大笑。
在一个例子中,可以通过数组{[x0,y0]、[x1,y1]……}来表示与表情类型对应的程度值,其中,x0、x1表示不同的表情类型,y0表示当表情类型为x0时对应的程度值、y1表示当表情类型为x1时对应的程度值。比如说,可以通过如下方式表示程度值:{[A,0112332111110]、[B,0122222222223]};其中,“A”表示的表情类型为难过,其后边的“0112332111110”表示在表情类型为难过时,所对应的程度值,程度值越大,表示用户的表情与标准表情的变化幅度值越大,可见,“[A,0112332111110]”表示的变化信息大致为:“难过状态:平静→难过→更难过→非常难过→平静的过程”;“B”表示的表情类型为高兴,其后边的“0122222222223”表示在表情类型为高兴时,所对应的程度值,程度值越大,表示用户的表情与标准表情的变化幅度值越大,可见,“[B,0122222222223]”表示的变化信息大致为:“高兴状态:平静→高兴→很高兴→非常高兴的过程”。
步骤206,根据程度值,获取用户对关注内容的满意度。
在一个例子中,可以对各表情类型比如愤怒、厌恶、恐惧、高兴、难过、惊喜等进行分类,比如第一类为高兴、惊喜,第二类为愤怒、厌恶、恐惧、难过。第一类中的表情类型对应的程度值与用户对关注内容的满意度成正相关;第二类中的表情类型对应的程度值与用户对关注内容的满意度成负相关。
不难发现,本实施方式提供的一种获取用户满意度的方法,考虑到了不同用户在通过面部进行情绪表达时的面部变化程度往往不同的情况,比如在面对同一搞笑内容时,有的用户笑的比较夸张,有的用户只是微笑,但是其满意度可能是相同的。本实施方式中,通过根据程度值,获取用户对关注内容的满意度,可以使得得到的满意度是将相同类型的表情存在不同程度的差异考虑在内而得到的,因此,在提高获取用户满意度的效率的同时,还可以进一步提高获取用户对关注内容的满意度的准确性。
本发明的第三实施方式涉及一种获取用户满意度的方法。本实施方式中,通过采集用户的眼球焦点特征和面部表情特征,并根据眼球焦点特征,获取用户的关注内容,再根据面部表情特征,获取用户对关注内容的满意度。由于可以通过用户的眼球焦点特征和面部表情特征,直接获取到用户对关注内容的满意度,因此,使得可以无需担心用户是否会对调查问券进行反馈,甚至在根本无需发送调查问券的情况下,仍然可以获取到大量的用户数据,有利于对用户当前关注的网页内容进行客观分析,提高获取用户满意度的效率。
下面对本实施方式的获取用户满意度的方法的实现细节进行具体的说明,以下内容仅为方便理解提供的实现细节,并非实施本方案的必须。
本实施方式中的获取用户满意度的方法的流程如图3所示,包括:
步骤301,采集用户的眼球焦点特征和面部表情特征。
具体的说,可以通过摄像头获取用户的眼球焦点特征和面部表情特征。由于无论用户的关注内容在显示界面的哪个位置,摄像头都可以识别得到用户的眼球焦点特征和面部表情特征,因此与相关技术中通过埋点的方式来进行数据采集相比,通过摄像头进行采集得到的数据范围更广、更全面。
本实施方式中,可以实时采集用户的眼球焦点特征和面部表情特征;也可以当检测到用户对显示界面进行点击、触控等操作时,采集用户的眼球焦点特征和面部表情特征,此处不作具体限定。
步骤302,根据眼球焦点特征,获取用户的关注内容。
在一个例子中,可以根据眼球焦点特征,获取用户的视线方向和视线角度,再根据视线方向和视线角度,确定目标区域,并根据目标区域,获取用户的关注内容。
具体的说,可以将眼球焦点特征与眼球特征模型进行对比,并根据对比结果,获取用户的视线方向和视线角度。在获取到用户的视线方向和视线角度后,可以根据用户的视线方向和视线角度,确定该视线方向和视线角度对应于显示界面的坐标数据,并根据坐标数据确定目标区域。在确定目标区域后,可以通过对目标区域进行自动截图的方式,获取用户的关注内容。
步骤303,根据面部表情特征,获取用户对关注内容的满意度。
在一个例子中,可以将面部表情特征与面部表情特征模型进行对比,并根据对比结果,获取用户的当前表情,进而根据用户的当前表情,获取用户对关注内容的满意度。其中,根据对比结果获取到的用户的当前表情,可以为但不限于:愤怒、厌恶、恐惧、高兴、难过、惊喜、正常(无情绪波动)。
在一个例子中,可以用分数表征用户对关注内容的满意度。比如说,若满分为5分,当用户的当前表情为惊喜时,可以用5分表示,当用户的当前表情为高兴,可以用4分表示;当用户的当前表情为正常时,可以用3分表示;当用户的当前表情为难过时,可以用2分表示;当用户的当前表情为厌恶或恐惧时,可以用1分表示;当用户的当前表情为愤怒时,可以用0分表示。
另外,在根据面部表情特征,获取用户对关注内容的满意度后,还可以判断是否接收到用户对关注内容的反馈信息;若接收到反馈信息,则结合反馈信息,对获取到的用户对关注内容的满意度进行调整。
在一个例子中,可以在显示界面设置控件,该控件用于供用户输入对关注内容的满意度反馈信息。通过将自动获取到的用户对关注内容的满意度,与接收到的用户对关注内容的满意度进行结合的方式,可以进一步提高获取用户对关注内容的满意度的准确性。
不难发现,本实施方式提供的一种获取用户满意度的方法,由于可以通过用户的眼球焦点特征和面部表情特征,直接获取到用户对关注内容的满意度,因此,使得可以无需担心用户是否会对调查问券进行反馈,甚至在根本无需发送调查问券的情况下,仍然可以获取到大量的用户数据,有利于对用户当前关注的网页内容进行客观分析,提高获取用户满意度的效率。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本发明第四实施方式涉及一种服务器,如图4所示,包括:至少一个处理器401;以及,与所述至少一个处理器401通信连接的存储器402;其中,所述存储器402存储有可被所述至少一个处理器401执行的指令,所述指令被所述至少一个处理器401执行,以使所述至少一个处理器401能够执行如第一至第三实施方式中任一的获取用户满意度的方法。
其中,存储器402和处理器401采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器401和存储器402的各种电路连接在一起。总线还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器401处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器401。
处理器401负责管理总线和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器402可以被用于存储处理器401在执行操作时所使用的数据。
本发明第五实施方式涉及一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述方法实施例。
即,本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施方式是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。
Claims (10)
1.一种获取用户满意度的方法,其特征在于,
采集用户的眼球焦点特征和面部表情特征;
根据所述眼球焦点特征,获取用户的关注内容;
根据所述面部表情特征,获取所述用户对所述关注内容的满意度;
根据用户的眼球焦点特征,获取所述用户的视线针对关注内容的停留时长;
获取在所述停留时长内,所述用户的面部表情特征的变化信息;
根据所述变化信息,获取所述用户对所述关注内容的满意度。
2.根据权利要求1所述的获取用户满意度的方法,其特征在于,所述根据所述变化信息,获取所述用户对所述关注内容的满意度,包括:
根据所述变化信息,获取所述用户的表情每一次发生变化时对应的时间节点;
识别在所述时间节点下,所述用户的表情对应的表情类型;
根据所述表情类型,获取所述用户的表情对应的程度值;其中,所述程度值用于表征在所述表情类型下的标准表情与所述用户的表情的变化幅度值;
根据所述程度值,获取所述用户对所述关注内容的满意度。
3.根据权利要求1所述的获取用户满意度的方法,其特征在于,所述根据所述变化信息,获取所述用户对所述关注内容的满意度,包括:
根据所述变化信息,生成所述用户的表情变化曲线;
将所述用户的表情变化曲线与标准表情变化曲线进行对比,获取所述用户对所述关注内容的满意度。
4.根据权利要求3所述的获取用户满意度的方法,其特征在于,所述标准表情变化曲线,具体为:根据所述用户的历史表情数据,生成的针对所述用户的标准表情变化曲线。
5.一种获取用户满意度的方法,其特征在于,
采集用户的眼球焦点特征和面部表情特征;
根据所述眼球焦点特征,获取用户的关注内容;
根据所述面部表情特征,获取所述用户对所述关注内容的满意度。
6.根据权利要求5所述的获取用户满意度的方法,其特征在于,所述根据所述眼球焦点特征,获取用户的关注内容,包括:
根据所述眼球焦点特征,获取所述用户的视线方向和视线角度;
根据所述视线方向和视线角度,确定目标区域;
根据所述目标区域,获取用户的关注内容。
7.根据权利要求6所述的获取用户满意度的方法,其特征在于,所述根据所述眼球焦点特征,获取所述用户的视线方向和视线角度,包括:
将所述眼球焦点特征与眼球特征模型进行对比;
根据对比结果,获取所述用户的视线方向和视线角度。
8.根据权利要求5所述的获取用户满意度的方法,其特征在于,在所述根据所述面部表情特征,获取所述用户对所述关注内容的满意度后,还包括:
判断是否接收到所述用户对所述关注内容的反馈信息;
若接收到所述反馈信息,则结合所述反馈信息,对获取到的所述用户对所述关注内容的满意度进行调整。
9.一种服务器,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至4中任一所述的获取用户满意度的方法,或者,以使所述至少一个处理器能够执行如权利要求5至8中任一所述的获取用户满意度的方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的获取用户满意度的方法,或者,所述计算机程序被处理器执行时实现权利要求5至8中任一项所述的获取用户满意度的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910664266.9A CN110569714A (zh) | 2019-07-23 | 2019-07-23 | 获取用户满意度的方法、服务器及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910664266.9A CN110569714A (zh) | 2019-07-23 | 2019-07-23 | 获取用户满意度的方法、服务器及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110569714A true CN110569714A (zh) | 2019-12-13 |
Family
ID=68773817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910664266.9A Pending CN110569714A (zh) | 2019-07-23 | 2019-07-23 | 获取用户满意度的方法、服务器及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110569714A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1662922A (zh) * | 2002-06-27 | 2005-08-31 | 皇家飞利浦电子股份有限公司 | 通过视觉和语音识别测量内容分级 |
CN105260369A (zh) * | 2014-07-15 | 2016-01-20 | 联想(北京)有限公司 | 一种辅助阅读的方法和电子设备 |
CN105303998A (zh) * | 2014-07-24 | 2016-02-03 | 北京三星通信技术研究有限公司 | 基于观众之间的关联信息播放广告的方法、装置和设备 |
CN107194316A (zh) * | 2017-04-20 | 2017-09-22 | 广东数相智能科技有限公司 | 一种情绪满意度的评价方法、装置及系统 |
CN108537159A (zh) * | 2018-04-03 | 2018-09-14 | 重庆房地产职业学院 | 公共空间中人对艺术作品认同度的数据分析系统及方法 |
CN109740466A (zh) * | 2018-12-24 | 2019-05-10 | 中国科学院苏州纳米技术与纳米仿生研究所 | 广告投放策略的获取方法、计算机可读存储介质 |
CN109948426A (zh) * | 2019-01-23 | 2019-06-28 | 深圳壹账通智能科技有限公司 | 应用程序调整方法、装置、电子设备及存储介质 |
-
2019
- 2019-07-23 CN CN201910664266.9A patent/CN110569714A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1662922A (zh) * | 2002-06-27 | 2005-08-31 | 皇家飞利浦电子股份有限公司 | 通过视觉和语音识别测量内容分级 |
CN105260369A (zh) * | 2014-07-15 | 2016-01-20 | 联想(北京)有限公司 | 一种辅助阅读的方法和电子设备 |
CN105303998A (zh) * | 2014-07-24 | 2016-02-03 | 北京三星通信技术研究有限公司 | 基于观众之间的关联信息播放广告的方法、装置和设备 |
CN107194316A (zh) * | 2017-04-20 | 2017-09-22 | 广东数相智能科技有限公司 | 一种情绪满意度的评价方法、装置及系统 |
CN108537159A (zh) * | 2018-04-03 | 2018-09-14 | 重庆房地产职业学院 | 公共空间中人对艺术作品认同度的数据分析系统及方法 |
CN109740466A (zh) * | 2018-12-24 | 2019-05-10 | 中国科学院苏州纳米技术与纳米仿生研究所 | 广告投放策略的获取方法、计算机可读存储介质 |
CN109948426A (zh) * | 2019-01-23 | 2019-06-28 | 深圳壹账通智能科技有限公司 | 应用程序调整方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11188928B2 (en) | Marketing method and apparatus based on deep reinforcement learning | |
CN111026971A (zh) | 内容的推送方法及装置、计算机存储介质 | |
WO2019080662A1 (zh) | 信息推荐方法及装置、设备 | |
CN105654341A (zh) | 一种基于云服务的航空产品推荐系统及方法 | |
CN106470110B (zh) | 向用户列表中的多个用户群发消息的方法及装置 | |
EP2846515A1 (en) | Network information pushing system and method | |
CN113222149B (zh) | 模型训练方法、装置、设备和存储介质 | |
US20200074509A1 (en) | Business data promotion method, device, terminal and computer-readable storage medium | |
CN113706251B (zh) | 基于模型的商品推荐方法、装置、计算机设备和存储介质 | |
CN111026853B (zh) | 目标问题的确定方法、装置、服务器和客服机器人 | |
CN112668608B (zh) | 一种图像识别方法、装置、电子设备及存储介质 | |
CN105183739A (zh) | 图像处理方法 | |
CN111782782B (zh) | 智能客服的咨询回复方法、装置、计算机设备和存储介质 | |
CN113204699B (zh) | 信息推荐方法、装置、电子设备及存储介质 | |
CN117235371A (zh) | 视频推荐方法、模型训练方法及装置 | |
CN117112902A (zh) | 一种基于多模态对比学习的离线强化学习商品推荐系统 | |
CN110196950B (zh) | 传播帐号的处理方法和装置 | |
CN109597941B (zh) | 排序方法及装置、电子设备和存储介质 | |
CN110569714A (zh) | 获取用户满意度的方法、服务器及计算机可读存储介质 | |
CN115393100A (zh) | 资源推荐方法及装置 | |
CN115293867A (zh) | 财务报销用户画像优化方法、装置、设备及存储介质 | |
JP6751955B1 (ja) | 学習方法、評価装置、及び評価システム | |
CN110020728B (zh) | 业务模型强化学习方法以及装置 | |
CN113407827A (zh) | 基于用户价值分类的信息推荐方法、装置、设备及介质 | |
Khasmakhi et al. | Convgenvismo: Evaluation of conversational generative vision models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191213 |