CN111695516B - 热力图的生成方法、装置及设备 - Google Patents
热力图的生成方法、装置及设备 Download PDFInfo
- Publication number
- CN111695516B CN111695516B CN202010537402.0A CN202010537402A CN111695516B CN 111695516 B CN111695516 B CN 111695516B CN 202010537402 A CN202010537402 A CN 202010537402A CN 111695516 B CN111695516 B CN 111695516B
- Authority
- CN
- China
- Prior art keywords
- position information
- information
- user
- interface
- gazing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010586 diagram Methods 0.000 title claims abstract description 123
- 238000000034 method Methods 0.000 title claims abstract description 67
- 210000001508 eye Anatomy 0.000 claims description 138
- 230000015654 memory Effects 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 abstract description 18
- 238000012545 processing Methods 0.000 abstract description 10
- 238000001514 detection method Methods 0.000 abstract description 4
- 230000000875 corresponding effect Effects 0.000 description 26
- 238000004590 computer program Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种热力图的生成方法、装置及设备,涉及图像处理、目标检测技术领域。具体实现方案为:在终端设备显示第一界面时,根据用户的人脸数据,确定用户在第一界面上的注视焦点信息,并根据所述注视焦点信息,生成第一界面对应的热力图。上述过程中,由于是基于用户在界面上的注视焦点信息生成热力图,无需事先对代码进行埋点,能够降低人力成本和时间成本;并且,生成的热力图能够反映出用户对界面中各区域的感兴趣程度;另外,由于本实施例的方法无需依赖用户的操作,避免了用户操作失误的问题,进而能够保证热力图分析结果的准确性。
Description
技术领域
本申请实施例涉及数据处理中的图像处理技术,尤其涉及一种热力图的生成方法、装置及设备。
背景技术
在互联网应用中,通常采用热力图对用户的行为进行分析。
现有的热力图生成过程通常为:在用户使用终端设备过程中,对用户的点击、滑动等行为进行捕获,并根据捕获到的用户行为数据生成热力图。
然而,上述现有技术需要开发人员在代码中针对点击、滑动等事件进行埋点,需要花费较多的时间成本和人力成本。
发明内容
本申请提供了一种热力图的生成方法、装置及设备,用以降低热力图生成的时间成本和人力成本。
第一方面,本申请提供了一种热力图的生成方法,包括:
在终端设备显示第一界面时,根据用户的人脸数据,确定所述用户在所述第一界面上的注视焦点信息;
根据所述注视焦点信息,生成所述第一界面对应的热力图。
第二方面,本申请提供了一种热力图的生成装置,包括:
确定模块,用于在终端设备显示第一界面时,根据用户的人脸数据,确定所述用户在所述第一界面上的注视焦点信息;
生成模块,用于根据所述注视焦点信息,生成所述第一界面对应的热力图。
第三方面,本申请提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面中任一项所述的方法。
第四方面,本申请提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行第一方面中任一项所述的方法。
第五方面,本申请提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行第一方面中任一项所述的方法。
本申请提供的热力图的生成方法、装置及设备,在终端设备显示第一界面时,根据用户的人脸数据,确定用户在第一界面上的注视焦点信息,并根据所述注视焦点信息,生成第一界面对应的热力图。上述过程中,由于是基于用户在界面上的注视焦点信息生成热力图,无需事先对代码进行埋点,能够降低人力成本和时间成本;并且,生成的热力图能够反映出用户对界面中各区域的感兴趣程度;另外,由于本实施例的方法无需依赖用户的操作,避免了用户操作失误的问题,进而能够保证热力图分析结果的准确性。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例适用的一种可能的系统架构的示意图;
图2为本申请一个实施例提供的热力图的生成方法的流程示意图;
图3为本申请实施例提供的用户在第一界面上的注视焦点的变化情况的示意图;
图4为本申请另一个实施例提供的热力图的生成方法的流程示意图;
图5为本申请实施例提供的用户注视第一界面的示意图;
图6为本申请又一个实施例提供的热力图的生成方法的流程示意图;
图7为本申请实施例提供的热力图的生成装置的结构示意图;
图8为本申请实施例提供的电子设备的结构示意图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面结合图1对本申请实施例可能的系统架构进行介绍。图1为本申请实施例适用的一种可能的系统架构的示意图。如图1所示,系统架构可以包括终端设备和服务器。终端设备可以通过网络与服务器通信连接。网络可以包括各种连接类型,例如:有线通信链路、无线通信链路或者光纤电缆等等。
其中,终端设备可以是具有显示屏的各种电子设备,包括但不限于:计算机、智能手机、笔记本电脑、平板电脑、智能穿戴设备、智能电视机、可视音箱等。终端设备上可以安装有互联网应用程序,例如:社交应用、邮箱应用、即时通信应用、电商平台类应用、搜索引擎应用、地图导航应用等。终端设备的显示屏可以对上述应用的界面进行展示。终端设备还可以向服务器发送信息,和/或,从服务器接收信息。
服务器可以是用于提供各种服务的服务器。服务器可以对从终端设备接收到的信息进行分析处理,得到处理结果。可选的,服务器还可以将处理结果发送给终端设备。需要说明的是,服务器可以是硬件,也可以是软件。
在互联网应用中,通常需要对用户的行为进行分析,以获取用户对于应用程序的喜好或者感兴趣程度。其中,通常采用热力图对用户的行为进行分析。热力图是指是以特殊高亮的形式把用户感兴趣的页面区域呈现出来的图示。通过热力图可以很清晰的分析出用户的喜好以及感兴趣的页面区域,这样就能为后续产品的优化迭代指明方向,进而让产品越来越懂用户,产品的体验也会变得越来越好。
现有技术中,通常采用如下方式生成热力图:事先在应用程序的代码中针对点击、滑动等事件进行埋点。用户在使用应用程序过程中,当用户点击或者滑动界面中控件时,通过这些埋点可以采集到用户的点击、滑动等行为。进而,根据采集到的用户的行为数据生成热力图。示例性的,热力图中各区域的亮度与用户对该区域的控件的操作频率相关。即,若一个控件被点击/滑动次数越多,则在热力图中该控件对应的区域显示的亮度越高。这样,根据热力图即可分析出该界面中的哪些控件被操作次数较多,哪些控件被操作次数较少,进而分析得到用户对该界面中的哪些内容更感兴趣。
然而,上述现有技术需要开发人员在代码中针对点击、滑动等事件进行埋点,需要花费较多的时间成本和人力成本。并且,上述生成的热力图只能反映出界面中的各控件被操作(点击、滑动等)的情况,并不能直观反映出用户对于界面中不同区域的感兴趣程度。例如,若界面中的某个区域并不存在可操作控件,则根据上述方式生成的热力图无法确定出用户是否对该区域感兴趣。另外,由于用户可能存在操作失误,使得上述生成的热力图对应的分析结果可能并不准确。
为了解决上述问题中的至少一个,本申请实施例提供一种热力图的生成方法,在用户使用终端设备的过程中,根据用户在界面上的注视焦点信息,生成该界面对应的热力图。上述过程中,由于是基于用户在界面上的注视焦点信息生成热力图,无需事先对代码进行埋点,能够降低人力成本和时间成本;并且,生成的热力图能够反映出用户对界面中各区域的感兴趣程度;另外,由于本实施例的方法无需依赖用户的操作,避免了用户操作失误的问题,能够保证热力图分析结果的准确性。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图2为本申请一个实施例提供的热力图的生成方法的流程示意图。本实施例的方法可以由图1中的终端设备执行,还可以由服务器执行。如图2所示,本实施例的方法可以包括:
S201:在终端设备显示第一界面时,根据用户的人脸数据,确定所述用户在所述第一界面上的注视焦点信息。
第一界面可以为终端设备显示的任意界面。本实施例以第一界面为例,描述第一界面的热力图的生成过程。
在终端设备显示第一界面时,或者,检测到用户正在观看第一界面时,在得到用户授权许可的情况下,终端设备可以获取用户的人脸数据。其中,人脸数据可以是用于描述用户在观看第一界面时的面部信息的数据,例如:面部的姿势、拓扑和表情等。
可选的,人脸数据为用户人脸对应的三维数据。人脸数据中包括了用户人脸中的各点在三维空间中的位置信息。
本实施例中,终端设备可以具有拍摄功能,用户在使用终端设备的过程中,终端设备可以对用户的人脸进行拍摄,从而获取到用户的人脸数据。
一些示例中,终端设备设置有前置摄像装置,该前置摄像装置拍摄的图像中具有深度信息。这样,在用户使用终端设备的过程中,通过该前置摄像装置对用户进行人脸采集,即可得到用户三维的人脸数据。
另一些示例中,终端设备设置有前置摄像装置。该前置摄像装置拍摄的图像中不具有深度信息。该情况下,在用户使用终端设备的过程中,通过该前置摄像装置对用户进行人脸采集,可以得到二维的人脸图像。进而,将该人脸图像输入至人脸检测模型中,通过人脸检测模型获取三维的人脸数据。其中,人脸检测模型可以是事先训练好的深度学习模型,可基于二维图像生成三维的人脸数据。
用户在观看第一界面时,用户的视线会聚焦于第一界面上的某一位置,本实施例中将该位置称为注视焦点。通过对用户的人脸数据进行分析,可以确定出用户在第一界面上的注视焦点信息。其中,注视焦点信息用于指示用户的视线在第一界面上的注视焦点的位置信息。
应理解,本实施例中的注视焦点可以是指第一界面上的某个像素点,还可以是指第一界面上的某个区域,本实施例对此不作限定。
S202:根据所述注视焦点信息,生成所述第一界面对应的热力图。
本实施例中,在终端设备显示第一界面的过程中,可以持续的对用户的人脸数据进行分析确定出用户的注视焦点。例如,可以每隔预设时间间隔获取一次用户的人脸数据。并根据每次获取的人脸数据,确定出用户在第一界面上的注视焦点,从而得到多个注视焦点。进而,根据多个注视焦点,可以生成第一界面对应的热力图。
由于用户可能对第一界面中的某个位置注视的时间较长,因此上述过程得到的多个注视焦点中,可能存在重叠的注视焦点。
一种可能的实施方式中,注视焦点信息可以包括用户在第一界面上的多个注视焦点的位置信息。这样,可以根据该多个注视焦点的位置信息,生成第一界面对应的热力图。该实施方式中,生成的热力图可以指示用户在第一界面上的多个注视焦点的分布情况。
上述实施方式生成的热力图可以反映出用户对于第一界面中的不同区域的感兴趣程度。本实施例的方法不依赖于用户对控件的操作行为,也就是说,即使某个区域中不包括任何控件,根据本实施例的热力图也可以分析出用户对该区域的感兴趣程度。
用户在观看第一界面时,眼睛可能会扫过第一界面中的一个或者多个区域。对于感兴趣的区域,用户注视的时间可能较长一些,对于不感兴趣的区域,用户可能不注视或者注视的时间较短一些。这样,用户对于一个区域的感兴趣程度与该区域中的注视焦点的数量/密度正相关。也就是说,若某个区域中的注视焦点的数量/密度较大,则说明用户对该区域的兴趣度较高;若某个区域中的注视焦点的数量/密度较小,则说明用户对该区域的兴趣度较小。
图3为本申请实施例提供的用户在第一界面上的注视焦点的变化情况的示意图。如图3所示,在终端设备显示第一界面的过程中,对用户进行了k次(图3中假设k=10)人脸数据的采集,通过对每次采集的人脸数据进行分析,共得到k个注视焦点,如图3中的圆圈所示。
结合图3,假设第一界面包括4个区域,分别为区域A、区域B、区域C和区域D。在获取到的10个注视焦点中,落在区域A中的注视焦点有5个,落在区域C中的注视焦点有3个,落在区域D中的注视焦点有2个,落在区域B中的注视焦点有0个。则说明用户对于4个区域的感兴趣程度由高到低依次为:区域A、区域C、区域D、区域B。
需要说明的是,图3所示的第一界面的区域划分仅为示例性说明,实际应用中不同的界面可能对应不同的区域划分方式。
另一种可能的实施方式中,注视焦点信息中除了包括各个注视焦点的位置信息,还可以包括各个注视焦点对应的时刻信息。时刻信息是指该注视焦点对应的采集时刻。相应的,可以根据多个注视焦点的位置信息和时刻信息,生成第一界面对应的热力图。该实施方式中,生成的热力图不仅可以指示用户在第一界面上的注视焦点的分布情况,还可以指示用户在第一界面上的注视焦点的轨迹变化情况。
通常,用户在观看到一个界面时,会首先被其感兴趣的内容吸引,即用户先注视界面中其感兴趣的内容,然而再注视界面中的其他内容。该实施方式中,由于热力图可以指示用户在第一界面上的注视焦点的轨迹变化情况,因此,通过该热力图可以分析出用户对第一界面中的各个区域的注视顺序,进而确定出用户对于各个区域的感兴趣程度。例如,假设某个界面对应的热力图中,指示用户的注视焦点先落入区域1,然后落入区域2,则说明用户对于区域1中内容更感兴趣。
需要说明的是,上述各实施方式中,对于热力图的呈现方式可以有多种,例如,在界面中的各个位置/区域可以采用不同颜色来表示用户的感兴趣程度,还可以采用不同亮度来表示用户的感兴趣程度。本实施例对此不作限定。
本实施例提供的热力图的生成方法,包括:在终端设备显示第一界面时,根据用户的人脸数据,确定用户在第一界面上的注视焦点信息,并根据所述注视焦点信息,生成第一界面对应的热力图。上述过程中,由于是基于用户在界面上的注视焦点信息生成热力图,无需事先对代码进行埋点,能够降低人力成本和时间成本;并且,生成的热力图能够反映出用户对界面中各区域的感兴趣程度;另外,由于本实施例的方法无需依赖用户的操作,避免了用户操作失误的问题,进而能够保证热力图分析结果的准确性。
图4为本申请另一个实施例提供的热力图的生成方法的流程示意图。本实施例对图2所示的实施例进行进一步细化。如图4所示,本实施例的方法包括:
S401:在终端设备显示第一界面时,根据用户的人脸数据,确定所述用户的眼睛注视方向信息和眼睛位置信息。
其中,眼睛注视方向信息表示的是用户的眼睛注视方向,可以基于人脸数据采用多种方式得到。示例性的,可以通过从人脸数据中提取眼睛特征,并基于眼睛特征得到用户的眼球模型,进而根据眼球模型确定出用户的眼睛注视方向。
眼睛位置信息表示的是用户的眼睛在三维坐标系中的位置,可以直接从人脸数据中提取得到。本实施例中,可以将眼球的中心点的位置信息作为眼睛位置信息。
确定出用户的眼睛注视方向信息和眼睛位置信息之后,可以根据眼睛注视信息和眼睛位置信息,确定出用户在第一界面上的注视焦点信息。下面结合S402和S403进行描述。
S402:根据所述眼睛注视方向信息和所述眼睛位置信息,确定出参考点的位置信息,所述参考点是沿所述用户的眼睛注视方向上的点,且所述参考点与所述用户的眼睛之间的距离为预设距离。
S403:根据所述眼睛位置信息和所述参考点的位置信息,确定所述用户在第一界面上的注视焦点信息。
示例性的,可以将沿用户的眼睛注视方向上距离眼睛预设距离的位置点确定为参考点。例如,预设距离可以为2m,即,将沿用户的眼睛注视方向上距离眼睛2m的位置点确定为参考点。
确定出参考点之后,在眼睛位置与参考点之间进行连线,可以将该连线与第一界面的交点确定为注视焦点。通过借助参考点的位置来确定注视焦点,提高了注视焦点的准确性。
通常,用户的左眼睛和右眼睛的注视位置通常不会相距太远,因此,实际应用中,可以利用用户的左眼睛确定注视焦点信息,即,根据左眼睛注视方向和左眼睛位置,确定出参考点,将左眼睛与参考点之间的连线与第一界面的交点确定为注视焦点。还可以利用用户的右眼睛确定注视焦点信息,即,根据右眼睛注视方向和右眼睛位置,确定出参考点,将右眼睛与参考点之间的连线与第一界面的交点确定为注视焦点。
为了使得确定出的注视焦点更加准确,可以将左眼睛和右眼睛分别进行考虑。具体的,眼睛注视方向信息包括:左眼睛注视方向信息和右眼睛注视方向信息,眼睛位置信息包括:左眼睛位置信息和右眼睛位置信息。
这样,S402可以具体包括:根据所述左眼睛注视方向信息和所述左眼睛位置信息,确定出左参考点的位置信息;以及根据所述右眼睛注视方向信息和所述右眼睛位置信息,确定出右参考点的位置信息。
S403可以具体包括:根据所述左眼睛位置信息和所述左参考点的位置信息,确定左交点的位置信息,所述左交点为所述用户的左眼睛与所述左参考点之间的连线与所述第一界面的交点;根据所述右眼睛位置信息和所述右参考点的位置信息,确定右交点的位置信息,所述右交点为所述用户的右眼睛与所述右参考点之间的连线与所述第一界面的交点;根据所述左交点的位置信息和所述右交点的位置信息,确定所述左交点和所述右交点之间连线的中点的位置信息;将所述中点的位置信息,确定为所述注视焦点信息。
下面结合图5进行举例说明。图5为本申请实施例提供的用户注视第一界面的示意图。如图5所示,从左眼睛的位置出发的虚线箭头表示左眼睛注视方向,将左眼睛注视方向上距离左眼睛2m远的点A作为左参考点。从右眼睛的位置出发的虚线箭头表示右眼睛的注视方向,将右眼睛注视方向上距离右眼睛2m远的点B作为右参考点。
进一步的,将左眼睛与左参考点A进行连线,该连线与第一界面的交点确定为左交点C。将右眼睛与右参考点B进行连线,该连线与第一界面的交点确定为右交点D。
将左交点C和右交点D进行连线,确定出该连线的中点E。由于左交点C和右交点D均是第一界面上的点,因此,中点E也为第一界面上的点。本实施例中,可以将中点E作为用户在第一界面的注视焦点。
S404:根据所述注视焦点信息,生成所述第一界面对应的热力图。
本实施例中,S404的具体实施方式与图2中的S202类似,此处不作赘述。
本实施例中,根据人脸数据,确定出用户的眼睛注视方向信息和眼睛位置信息,并根据眼睛注视方向信息和眼睛位置信息,确定出参考点的位置信息,进而根据眼睛位置信息和参考点的位置信息,确定用户在第一界面上的注视焦点信息,提高了注视焦点信息的准确性。进一步的,根据用户的注视焦点信息生成第一界面对应的热力图,保证了热力图的准确性。
图6为本申请又一个实施例提供的热力图的生成方法的流程示意图。本实施例的方法可以由终端设备和服务器配合完成。如图6所示,本实施例的方法包括:
S601:在终端设备显示第一界面时,终端设备根据用户的人脸数据,确定所述用户在第一界面上的注视焦点信息。
S602:终端设备对所述注视焦点信息进行去噪处理。
由于用户在观看第一界面时,用户的瞳孔位置的变化频率是非常高的,某个采样数据的异常可能会导致注视焦点信息的抖动。本实施例中,为了保证热力图的准确性,终端设备在向服务器发送注视焦点信息之前,还可以通过去噪算法对注视焦点信息进行去噪去除。
其中,去噪处理的方式有多种,本实施例对此不作限定。示例性的,若连续10次采集到的注视焦点中,其中前1-5次采集到的注视焦点位于区域A,第7-10次采集到的注视焦点也位于区域A,而第6次采集到的注视焦点位于区域B中,则认为第6次采集到的注视焦点信息为噪声点。可以将第6次采集到的注视焦点信息去除,或者,还可以根据其余9次采集到的注视焦点对对第6次采集到的注视焦点进行平滑处理。
通过对注视焦点信息进行去噪处理,能够保证采集到的注视焦点的准确性,进而保证了热力图的准确性。
S603:终端设备向服务器发送所述去噪处理后的注视焦点信息。
具体实现过程中,终端设备可以对各次采集人脸数据得到的注视焦点信息打包暂存在本地存储空间中,后续在某个时刻将暂存的数据发送给服务器。或者,终端设备还可以将每次采集人脸数据得到的注视焦点信息实时发送给服务器。
S604:服务器根据接收到的注视焦点信息,生成第一界面对应的热力图。
可选的,服务器还可以对所述热力图进行展示。
可选的,服务器还可以向终端设备发送所述热力图,相应的,终端设备接收到热力图后,对该热力图进行展示。
本实施例中,由终端设备实时采集用户在第一界面上的注视焦点信息,并将注视焦点信息发送给服务器,由服务器生成第一界面对应的热力图,降低了终端设备的处理负担,在不影响用户使用终端设备的情况下,生成第一界面的热力图,从而可以根据热力图分析得到用户对于第一界面的不同区域的感兴趣程度,有利于对第一界面进行持续优化。
图7为本申请实施例提供的热力图的生成装置的结构示意图。本实施例的装置可以为软件和/或硬件的形式。如图7所示,本实施例提供的热力图的生成装置10,可以包括:确定模块11和生成模块12。
其中,确定模块11,用于在终端设备显示第一界面时,根据用户的人脸数据,确定所述用户在所述第一界面上的注视焦点信息;
生成模块12,用于根据所述注视焦点信息,生成所述第一界面对应的热力图。
一种可能的实现方式中,所述注视焦点信息包括所述用户在所述第一界面上的多个注视焦点的位置信息;所述生成模块12具体用于:
根据所述多个注视焦点的位置信息,生成所述第一界面对应的热力图,所述热力图用于指示所述用户在所述第一界面上的多个注视焦点的分布情况。
一种可能的实现方式中,所述注视焦点信息还包括各所述注视焦点对应的时刻信息;所述生成模块12具体用于:
根据所述多个注视焦点的位置信息以及所述时刻信息,生成所述第一界面对应的热力图,所述热力图用于指示所述用户在所述第一界面上的注视焦点的轨迹变化情况。
一种可能的实现方式中,所述确定模块11具体用于:
根据所述人脸数据,确定所述用户的眼睛注视方向信息和眼睛位置信息;
根据所述眼睛注视方向信息和所述眼睛位置信息,确定所述用户在第一界面上的注视焦点信息。
一种可能的实现方式中,所述确定模块11具体用于:
根据所述眼睛注视方向信息和所述眼睛位置信息,确定出参考点的位置信息,所述参考点是沿所述用户的眼睛注视方向上的点,且所述参考点与所述用户的眼睛之间的距离为预设距离;
根据所述眼睛位置信息和所述参考点的位置信息,确定所述用户在第一界面上的注视焦点信息。
一种可能的实现方式中,所述眼睛注视方向信息包括:左眼睛注视方向信息和右眼睛注视方向信息,所述眼睛位置信息包括:左眼睛位置信息和右眼睛位置信息;所述确定模块11具体用于:
根据所述左眼睛注视方向信息和所述左眼睛位置信息,确定出左参考点的位置信息;
根据所述右眼睛注视方向信息和所述右眼睛位置信息,确定出右参考点的位置信息。
一种可能的实现方式中,所述确定模块11具体用于:
根据所述左眼睛位置信息和所述左参考点的位置信息,确定左交点的位置信息,所述左交点为所述用户的左眼睛与所述左参考点之间的连线与所述第一界面的交点;
根据所述右眼睛位置信息和所述右参考点的位置信息,确定右交点的位置信息,所述右交点为所述用户的右眼睛与所述右参考点之间的连线与所述第一界面的交点;
根据所述左交点的位置信息和所述右交点的位置信息,确定所述左交点和所述右交点之间连线的中点的位置信息;
将所述中点的位置信息,确定为所述注视焦点信息。
一种可能的实现方式中,所述生成模块12具体用于:
向服务器发送所述注视焦点信息,所述注视焦点信息用于使所述服务器生成所述第一界面对应的热力图。
一种可能的实现方式中,所述生成模块12具体用于:
对所述注视焦点信息进行去噪处理;
根据所述去噪处理后的注视焦点信息,生成所述第一界面对应的热力图。
本实施例提供的热力图的生成装置,可用于执行上述任一方法实施例的技术方案,其实现原理和技术效果类似,此处不作赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
根据本申请的实施例,本申请还提供了一种计算机程序产品,该计算机程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
如图8所示,是根据本申请实施例的热力图的生成方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的热力图的生成方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的热力图的生成方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的热力图的生成方法对应的程序指令/模块(例如,附图7所示的确定模块11和生成模块12)。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的热力图的生成方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
电子设备还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (16)
1.一种热力图的生成方法,包括:
在终端设备显示第一界面时,根据人脸数据,确定用户的眼睛注视方向信息和眼睛位置信息;
根据所述眼睛注视方向信息和所述眼睛位置信息,确定出参考点的位置信息,所述参考点是沿所述用户的眼睛注视方向上的点,且所述参考点与所述用户的眼睛之间的距离为预设距离;
根据所述眼睛位置信息和所述参考点的位置信息,确定所述用户在第一界面上的注视焦点信息;其中,所述用户的眼睛与所述参考点之间的距离大于所述用户眼睛与所述用户在第一界面上的注视焦点之间的距离;
根据所述注视焦点信息,生成所述第一界面对应的热力图。
2.根据权利要求1所述的方法,其中,所述注视焦点信息包括所述用户在所述第一界面上的多个注视焦点的位置信息;根据所述注视焦点信息,生成所述第一界面对应的热力图,包括:
根据所述多个注视焦点的位置信息,生成所述第一界面对应的热力图,所述热力图用于指示所述用户在所述第一界面上的多个注视焦点的分布情况。
3.根据权利要求2所述的方法,其中,所述注视焦点信息还包括各所述注视焦点对应的时刻信息;根据所述多个注视焦点的位置信息,生成所述第一界面对应的热力图,包括:
根据所述多个注视焦点的位置信息以及所述时刻信息,生成所述第一界面对应的热力图,所述热力图还用于指示所述用户在所述第一界面上的注视焦点的轨迹变化情况。
4.根据权利要求1所述的方法,其中,所述眼睛注视方向信息包括:左眼睛注视方向信息和右眼睛注视方向信息,所述眼睛位置信息包括:左眼睛位置信息和右眼睛位置信息;根据所述眼睛注视方向信息和所述眼睛位置信息,确定出参考点的位置信息,包括:
根据所述左眼睛注视方向信息和所述左眼睛位置信息,确定出左参考点的位置信息;
根据所述右眼睛注视方向信息和所述右眼睛位置信息,确定出右参考点的位置信息。
5.根据权利要求4所述的方法,其中,根据所述眼睛位置信息和所述参考点的位置信息,确定所述用户在第一界面上的注视焦点信息,包括:
根据所述左眼睛位置信息和所述左参考点的位置信息,确定左交点的位置信息,所述左交点为所述用户的左眼睛与所述左参考点之间的连线与所述第一界面的交点;
根据所述右眼睛位置信息和所述右参考点的位置信息,确定右交点的位置信息,所述右交点为所述用户的右眼睛与所述右参考点之间的连线与所述第一界面的交点;
根据所述左交点的位置信息和所述右交点的位置信息,确定所述左交点和所述右交点之间连线的中点的位置信息;
将所述中点的位置信息,确定为所述注视焦点信息。
6.根据权利要求1至5任一项所述的方法,其中,根据所述注视焦点信息,生成所述第一界面对应的热力图,包括:
向服务器发送所述注视焦点信息,所述注视焦点信息用于使所述服务器生成所述第一界面对应的热力图。
7.根据权利要求1至5任一项所述的方法,其中,根据所述注视焦点信息,生成所述第一界面对应的热力图,包括:
对所述注视焦点信息进行去噪处理;
根据所述去噪处理后的注视焦点信息,生成所述第一界面对应的热力图。
8.一种热力图的生成装置,包括:
确定模块,用于在终端设备显示第一界面时,根据人脸数据,确定用户的眼睛注视方向信息和眼睛位置信息;
根据所述眼睛注视方向信息和所述眼睛位置信息,确定出参考点的位置信息,所述参考点是沿所述用户的眼睛注视方向上的点,且所述参考点与所述用户的眼睛之间的距离为预设距离;
根据所述眼睛位置信息和所述参考点的位置信息,确定所述用户在第一界面上的注视焦点信息;其中,所述用户的眼睛与所述参考点之间的距离大于所述用户眼睛与所述用户在第一界面上的注视焦点之间的距离;
生成模块,用于根据所述注视焦点信息,生成所述第一界面对应的热力图。
9.根据权利要求8所述的装置,其中,所述注视焦点信息包括所述用户在所述第一界面上的多个注视焦点的位置信息;所述生成模块具体用于:
根据所述多个注视焦点的位置信息,生成所述第一界面对应的热力图,所述热力图用于指示所述用户在所述第一界面上的多个注视焦点的分布情况。
10.根据权利要求9所述的装置,其中,所述注视焦点信息还包括各所述注视焦点对应的时刻信息;所述生成模块具体用于:
根据所述多个注视焦点的位置信息以及所述时刻信息,生成所述第一界面对应的热力图,所述热力图还用于指示所述用户在所述第一界面上的注视焦点的轨迹变化情况。
11.根据权利要求8所述的装置,其中,所述眼睛注视方向信息包括:左眼睛注视方向信息和右眼睛注视方向信息,所述眼睛位置信息包括:左眼睛位置信息和右眼睛位置信息;所述确定模块具体用于:
根据所述左眼睛注视方向信息和所述左眼睛位置信息,确定出左参考点的位置信息;
根据所述右眼睛注视方向信息和所述右眼睛位置信息,确定出右参考点的位置信息。
12.根据权利要求11所述的装置,其中,所述确定模块具体用于:
根据所述左眼睛位置信息和所述左参考点的位置信息,确定左交点的位置信息,所述左交点为所述用户的左眼睛与所述左参考点之间的连线与所述第一界面的交点;
根据所述右眼睛位置信息和所述右参考点的位置信息,确定右交点的位置信息,所述右交点为所述用户的右眼睛与所述右参考点之间的连线与所述第一界面的交点;
根据所述左交点的位置信息和所述右交点的位置信息,确定所述左交点和所述右交点之间连线的中点的位置信息;
将所述中点的位置信息,确定为所述注视焦点信息。
13.根据权利要求8至12任一项所述的装置,其中,所述生成模块具体用于:
向服务器发送所述注视焦点信息,所述注视焦点信息用于使所述服务器生成所述第一界面对应的热力图。
14.根据权利要求8至12任一项所述的装置,其中,所述生成模块具体用于:
对所述注视焦点信息进行去噪处理;
根据所述去噪处理后的注视焦点信息,生成所述第一界面对应的热力图。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010537402.0A CN111695516B (zh) | 2020-06-12 | 2020-06-12 | 热力图的生成方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010537402.0A CN111695516B (zh) | 2020-06-12 | 2020-06-12 | 热力图的生成方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111695516A CN111695516A (zh) | 2020-09-22 |
CN111695516B true CN111695516B (zh) | 2023-11-07 |
Family
ID=72480871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010537402.0A Active CN111695516B (zh) | 2020-06-12 | 2020-06-12 | 热力图的生成方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111695516B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132049A (zh) * | 2020-09-24 | 2020-12-25 | 天津锋物科技有限公司 | 一种访客管理方法及系统 |
CN114995723A (zh) * | 2021-12-27 | 2022-09-02 | 阿里巴巴(中国)有限公司 | 一种基于热力地图的数据处理方法和装置 |
CN114840764B (zh) * | 2022-05-25 | 2022-11-25 | 皓量科技(深圳)有限公司 | 服务于用户兴趣分析的大数据挖掘方法及云端ai部署系统 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104460185A (zh) * | 2014-11-28 | 2015-03-25 | 小米科技有限责任公司 | 自动对焦方法及装置 |
WO2016097909A1 (en) * | 2014-12-16 | 2016-06-23 | Koninklijke Philips N.V. | Automatic radiology reading session detection |
CN108345848A (zh) * | 2018-01-31 | 2018-07-31 | 广东欧珀移动通信有限公司 | 用户注视方向识别方法及相关产品 |
CN108615159A (zh) * | 2018-05-03 | 2018-10-02 | 百度在线网络技术(北京)有限公司 | 基于注视点检测的访问控制方法和装置 |
CN108647242A (zh) * | 2018-04-10 | 2018-10-12 | 北京天正聚合科技有限公司 | 一种热力图的生成方法和系统 |
CN109711291A (zh) * | 2018-12-13 | 2019-05-03 | 合肥工业大学 | 基于眼睛凝视热力图的人格预测方法 |
CN110059666A (zh) * | 2019-04-29 | 2019-07-26 | 北京市商汤科技开发有限公司 | 一种注意力检测方法及装置 |
CN110464365A (zh) * | 2018-05-10 | 2019-11-19 | 深圳先进技术研究院 | 一种关注度确定方法、装置、设备和存储介质 |
CN110636218A (zh) * | 2019-08-19 | 2019-12-31 | RealMe重庆移动通信有限公司 | 对焦方法、装置、存储介质及电子设备 |
CN110673886A (zh) * | 2018-07-03 | 2020-01-10 | 百度在线网络技术(北京)有限公司 | 用于生成热力图的方法和装置 |
US10531795B1 (en) * | 2017-09-27 | 2020-01-14 | University Of Miami | Vision defect determination via a dynamic eye-characteristic-based fixation point |
CN110928407A (zh) * | 2019-10-30 | 2020-03-27 | 维沃移动通信有限公司 | 信息显示方法及装置 |
CN111027504A (zh) * | 2019-12-18 | 2020-04-17 | 上海眼控科技股份有限公司 | 人脸关键点检测方法、装置、设备及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180084232A1 (en) * | 2015-07-13 | 2018-03-22 | Michael Belenkii | Optical See-Through Head Worn Display |
US9936163B1 (en) * | 2016-10-05 | 2018-04-03 | Avaya Inc. | System and method for mirror utilization in meeting rooms |
-
2020
- 2020-06-12 CN CN202010537402.0A patent/CN111695516B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104460185A (zh) * | 2014-11-28 | 2015-03-25 | 小米科技有限责任公司 | 自动对焦方法及装置 |
WO2016097909A1 (en) * | 2014-12-16 | 2016-06-23 | Koninklijke Philips N.V. | Automatic radiology reading session detection |
US10531795B1 (en) * | 2017-09-27 | 2020-01-14 | University Of Miami | Vision defect determination via a dynamic eye-characteristic-based fixation point |
CN108345848A (zh) * | 2018-01-31 | 2018-07-31 | 广东欧珀移动通信有限公司 | 用户注视方向识别方法及相关产品 |
CN108647242A (zh) * | 2018-04-10 | 2018-10-12 | 北京天正聚合科技有限公司 | 一种热力图的生成方法和系统 |
CN108615159A (zh) * | 2018-05-03 | 2018-10-02 | 百度在线网络技术(北京)有限公司 | 基于注视点检测的访问控制方法和装置 |
CN110464365A (zh) * | 2018-05-10 | 2019-11-19 | 深圳先进技术研究院 | 一种关注度确定方法、装置、设备和存储介质 |
CN110673886A (zh) * | 2018-07-03 | 2020-01-10 | 百度在线网络技术(北京)有限公司 | 用于生成热力图的方法和装置 |
CN109711291A (zh) * | 2018-12-13 | 2019-05-03 | 合肥工业大学 | 基于眼睛凝视热力图的人格预测方法 |
CN110059666A (zh) * | 2019-04-29 | 2019-07-26 | 北京市商汤科技开发有限公司 | 一种注意力检测方法及装置 |
CN110636218A (zh) * | 2019-08-19 | 2019-12-31 | RealMe重庆移动通信有限公司 | 对焦方法、装置、存储介质及电子设备 |
CN110928407A (zh) * | 2019-10-30 | 2020-03-27 | 维沃移动通信有限公司 | 信息显示方法及装置 |
CN111027504A (zh) * | 2019-12-18 | 2020-04-17 | 上海眼控科技股份有限公司 | 人脸关键点检测方法、装置、设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
Seeing the city: using eye-tracking technology to explore cognitive responses to the built environment;Justin B. Hollander等;《Journal of Urbanism: International Research on Placemaking and Urban Sustainability》;第12卷(第2期);156=171 * |
基于眼动分析的塔台管制情境意识测量指标研究;刘文辉;《中国优秀硕士学位论文全文数据库 工程科技II辑》(第1期);C031-314 * |
Also Published As
Publication number | Publication date |
---|---|
CN111695516A (zh) | 2020-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111695516B (zh) | 热力图的生成方法、装置及设备 | |
CN112528850B (zh) | 人体识别方法、装置、设备和存储介质 | |
CN111860167B (zh) | 人脸融合模型获取及人脸融合方法、装置及存储介质 | |
CN112270669B (zh) | 人体3d关键点检测方法、模型训练方法及相关装置 | |
CN111722245B (zh) | 定位方法、定位装置和电子设备 | |
CN112584077B (zh) | 视频的插帧方法、装置及电子设备 | |
CN111695519B (zh) | 关键点定位方法、装置、设备以及存储介质 | |
CN110659600B (zh) | 物体检测方法、装置及设备 | |
US20220036731A1 (en) | Method for detecting vehicle lane change, roadside device, and cloud control platform | |
CN111709874A (zh) | 图像调整的方法、装置、电子设备及存储介质 | |
CN112150462B (zh) | 确定目标锚点的方法、装置、设备以及存储介质 | |
CN112487973B (zh) | 用户图像识别模型的更新方法和装置 | |
CN111709875B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN112241716B (zh) | 训练样本的生成方法和装置 | |
CN112116525B (zh) | 换脸识别方法、装置、设备和计算机可读存储介质 | |
CN111524123B (zh) | 用于处理图像的方法和装置 | |
CN112584076A (zh) | 视频的插帧方法、装置及电子设备 | |
EP3901892A2 (en) | Commodity guiding method and apparatus, electronic device, storage medium, and computer program product | |
CN111524165A (zh) | 目标跟踪方法和装置 | |
CN112508964B (zh) | 图像分割方法、装置、电子设备和存储介质 | |
CN110798681B (zh) | 成像设备的监测方法、装置和计算机设备 | |
CN112270303A (zh) | 图像识别方法、装置以及电子设备 | |
CN111696134A (zh) | 一种目标检测方法、装置以及电子设备 | |
JP7269979B2 (ja) | 歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
CN112558810B (zh) | 检测指尖位置的方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |