CN115909402A - 行人视线聚集区的确定方法、装置及计算机可读存储介质 - Google Patents
行人视线聚集区的确定方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN115909402A CN115909402A CN202211467615.6A CN202211467615A CN115909402A CN 115909402 A CN115909402 A CN 115909402A CN 202211467615 A CN202211467615 A CN 202211467615A CN 115909402 A CN115909402 A CN 115909402A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- sight
- area
- determining
- display area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000002093 peripheral effect Effects 0.000 claims abstract description 27
- 238000004891 communication Methods 0.000 claims description 14
- 210000003128 head Anatomy 0.000 description 19
- 238000010586 diagram Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 6
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Image Analysis (AREA)
Abstract
本发明实施例涉及汽车技术领域,公开了一种行人视线聚集区的确定方法、装置及计算机可读存储介质,首先,通过获取所述待测区域的行人图像和所述待测区域对应的区域模型,然后,基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点,最后,由所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。应用本发明的技术方案,能够更科学的在展示区内确定周边通道区域上的行人视线聚集区,从而可以将需要展示的物品放置在行人视线聚集区,以使待展示物品可以被更多的行人看到,从而吸引行人的视线。
Description
技术领域
本发明实施例涉及汽车技术领域,具体涉及一种行人视线聚集区的确定方法、装置及计算机可读存储介质。
背景技术
商场作为一个集吃、穿、娱乐为一体的商业综合体,吸引了大量多元化的用户,这种高用户高度聚集的商场,是新能源汽车的一个非常重要的推广场所。因此,大多数新能源汽车品牌都会在商场里建体验店,从而拉近与用户的距离。但是,不同于传统商品,汽车进驻商场,由于汽车具备体积大、店内可放展品有限等特性,因此如何确定体验店内最容易被行人观察到的位置,以作为汽车摆放的位置,使得汽车进入更多行人的视线范围,吸引行人视线,成为急需解决的技术问题。
发明内容
鉴于上述问题,本发明实施例提供了一种行人视线聚集区的确定方法、装置及计算机可读存储介质,用于解决现有技术中存在的:如何在商场环境中,确定门店内最容易被行人观察的区域的问题。
根据本发明实施例的一个方面,提供了一种行人视线聚集区的确定方法,所述行人视线聚集区的确定方法,用于确定待测区域的行人视线聚集区,所述待测区域包括展示区以及周边通道区域,包括:
获取所述待测区域的行人图像和所述待测区域对应的区域模型;
基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点;
根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
在一种实现方式中,在所述根据所述视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤之后,还包括:
获取展示区内待展示物品的属性,所述待展示物品的属性包括待展示物品占地面积、行人可接触范围或待展示物品距周边物品的安全距离中的至少之一;
基于所述待展示物品的属性和所述行人视线聚集区,生成待展示物品的放置区域。
在一种实现方式中,所述基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点的步骤,具体为:
基于所述行人图像,预估每一行人的行人视线;
基于预估的每一所述行人视线和所述区域模型,确定所述展示区内每一行人的有效行人视线;
将所有行人的所述有效行人视线的交叉点,标记为所述展示区内的行人视线交叉点。
在一种实现方式中,所述行人视线包括视线方向;所述基于预估的每一所述行人视线和所述区域模型,确定所述展示内每一行人的有效行人视线的步骤,具体:
根据所述区域模型,确定所述展示区内的可透视边界;
根据所述可透视边界和所述视线方向,确定所有行人的可透视行人视线;所述可透视行人视线包括:行人可透视观察展示区的视线信息;
根据所述可透视行人视线和预设的视线观察阈值,确定所述可透视边界对应的每一行人的有效行人视线。
在一种实现方式中,基于所述行人图像,预估每一行人的行人视线的步骤中,还包括:
将所述行人图像输入至预先训练的视线识别模型中,输出行人的头部姿态;
基于所述行人的头部姿态和所述区域模型,预估所述行人的行人视线。
在一种实现方式中,所述根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤,具体包括:
若所述展示区包括一个可透视边界,则根据所述可透视边界对应的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区;
若所述展示区包括两个以上可透视边界,则根据每一所述可透视边界对应的所述行人视线交叉点的密集程度,分别计算每一所述可透视边界的行人视线聚集区,以及将所有可透视边界的行人视线聚集区的交集作为最终的行人视线聚集区。
根据本发明实施例的另一方面,提供了一种行人视线聚集区的确定装置,所述行人视线聚集区的确定装置用于确定待测区域的行人视线聚集区,包括:
第一获取模块,用于获取所述待测区域的行人图像和所述待测区域对应的区域模型;
视线交叉点确定模块,用于基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点;
行人视线聚集区确定模块,用于根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
在一种实现方式中,所述行人视线聚集区的确定装置还包括:
第二获取模块,用于获取所述展示区内待展示物品的属性,所述待展示物品的属性包括待展示物品占地面积、行人可接触范围或待展示物品距周边物品的安全距离中的至少之一;
放置区域生成模块,用于基于所述待展示物品的属性和所述行人视线聚集区,生成待展示物品的放置区域。
在一种实现方式中,所述视线交叉点确定模块还用于:
基于所述行人图像,预估每一行人的行人视线;
基于预估的每一所述行人视线和所述区域模型,确定所述展示区内每一行人的有效行人视线;
将所有行人的所述有效行人视线的交叉点,标记为所述展示区内的行人视线交叉点。
在一种实现方式中,所述行人视线确定模块还用于:
获取所述展示区的边界,所述展示区的边界包括行人可透视的第一边界和行人不可透视的第二边界;
若任一行人的所述行人视线的视线方向指向所述第二边界,则去除所述视线方向对应的任一行人的所述行人视线。
在一种实现方式中,所述行人视线确定模块还用于:
将所述行人图像输入至预先训练的视线识别模型中,输出行人的头部姿态。
基于所述行人的头部姿态和所述区域模型,预估所述行人的行人视线。
在一种实现方式中,所述根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤,具体包括:
若所述展示区包括一个可透视边界,则根据所述可透视边界对应的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区;
若所述展示区包括两个以上可透视边界,则根据每一所述可透视边界对应的所述行人视线交叉点的密集程度,分别计算每一所述可透视边界的行人视线聚集区,以及将所有可透视边界的行人视线聚集区的交集作为最终的行人视线聚集区。
根据本发明实施例的另一方面,提供了一种行人视线聚集区的确定设备,包括:
处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行以下步骤:
获取所述待测区域的行人图像和所述待测区域对应的区域模型;
基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点;
根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
在一种实现方式中,在所述根据所述视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤之后,还包括:
获取展示区内待展示物品的属性,所述待展示物品的属性包括待展示物品占地面积、行人可接触范围或待展示物品距周边物品的安全距离中的至少之一;
基于所述待展示物品的属性和所述行人视线聚集区,生成待展示物品的放置区域。
在一种实现方式中,所述基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点的步骤,具体为:
基于所述行人图像,预估每一行人的行人视线;
基于预估的每一所述行人视线和所述区域模型所述展示区内,确定每一行人的有效行人视线;
将所有行人的所述有效行人视线的交叉点,标记为所述展示区内的行人视线交叉点。
在一种实现方式中,所述行人视线包括视线方向;所述基于预估的每一所述行人视线和所述区域模型,确定所述展示内每一行人的有效行人视线的步骤,具体为:
根据所述区域模型,确定所述展示区内的可透视边界;
根据所述可透视边界和所述视线方向,确定所有行人的可透视行人视线;所述可透视行人视线包括:行人可透视观察展示区的视线信息;
根据所述可透视行人视线和预设的视线观察阈值,确定所述可透视边界对应的每一行人的有效行人视线。
在一种实现方式中,基于所述行人图像,预估每一行人的行人视线的步骤中,还包括:
将所述行人图像输入至预先训练的视线识别模型中,输出行人的头部姿态;
基于所述行人的头部姿态和所述区域模型预估所述行人的行人视线。
在一种实现方式中,所述根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤,具体包括:
若所述展示区包括一个可透视边界,则根据所述可透视边界对应的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区;
若所述展示区包括两个以上可透视边界,则根据每一所述可透视边界对应的所述行人视线交叉点的密集程度,分别计算每一所述可透视边界的行人视线聚集区,以及将所有可透视边界的行人视线聚集区的交集作为最终的行人视线聚集区。
根据本发明实施例的又一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使行人视线聚集区的确定设备/装置执行以下操作:
获取所述待测区域的行人图像和所述待测区域对应的区域模型;
基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点;
根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
在一种实现方式中,在所述根据所述视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤之后,还包括:
获取展示区内待展示物品的属性,所述待展示物品的属性包括待展示物品占地面积、行人可接触范围或待展示物品距周边物品的安全距离中的至少之一;
基于所述待展示物品的属性和所述行人视线聚集区,生成待展示物品的放置区域。
在一种实现方式中,所述基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点的步骤,具体为:
基于所述行人图像,预估每一行人的行人视线;
基于预估的每一所述行人视线和所述区域模型,确定所述展示区内每一行人的有效行人视线;
将所有行人的所述有效行人视线的交叉点,标记为所述展示区内的行人视线交叉点。
在一种实现方式中,所述行人视线包括视线方向;所述基于预估的每一所述行人视线和所述区域模型,确定所述展示内每一行人的有效行人视线的步骤,具体为:
根据所述区域模型,确定所述展示区内的可透视边界;
根据所述可透视边界和所述视线方向,确定所有行人的可透视行人视线;所述可透视行人视线包括:行人可透视观察展示区的视线信息;
根据所述可透视行人视线和预设的视线观察阈值,确定所述可透视边界对应的每一行人的有效行人视线。
在一种实现方式中,基于所述行人图像,预估每一行人的行人视线的步骤中,还包括:
将所述行人图像输入至预先训练的视线识别模型中,输出行人的头部姿态;
基于所述行人的头部姿态和所述区域模型,预估所述行人的行人视线。
在一种实现方式中,所述根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤,具体包括:
若所述展示区包括一个可透视边界,则根据所述可透视边界对应的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区;
若所述展示区包括两个以上可透视边界,则根据每一所述可透视边界对应的所述行人视线交叉点的密集程度,分别计算每一所述可透视边界的行人视线聚集区,以及将所有可透视边界的行人视线聚集区的交集作为最终的行人视线聚集区。
本发明实施例提供的一种行人视线聚集区的确定方法、装置及计算机可读存储介质,通过获取所述待测区域的行人图像和所述待测区域对应的区域模型,然后基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点,最后由所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。应用本发明的技术方案,能够更科学的在展示区内确定周边通道区域上的行人视线聚集区,从而可以将需要展示的物品放置在行人视线聚集区,以使待展示物品可以被更多的行人看到,从而吸引行人的视线。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
附图仅用于示出实施方式,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明提供的一种行人视线聚集区的确定方法的第一实施例的流程图;
图2示出了本发明提供的一种行人视线的视线交叉点生成示意图;
图3示出了本发明提供的另一种行人视线的视线交叉点生成示意图;
图4示出了本发明提供的一种行人视线聚集区的确定方法的另一个实施例的流程图;
图5示出了本发明提供的一种行人视线聚集区的确定方法的又一个实施例的流程图;
图6示出了本发明提供的一种行人视线聚集区的确定装置的第一实施例的结构示意图;
图7示出了本发明提供的一种行人视线聚集区的确定设备的实施例的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。
图1示出了本发明提供的一种行人视线聚集区的确定方法的第一实施例的流程图,该行人视线聚集区的确定方法由行人视线聚集区的确定设备执行。所述行人视线聚集区的确定方法用于确定待测区域的行人视线聚集区,所述待测区域包括展示区以及周边通道区域,如图1所示,该行人视线聚集区的确定方法包括以下步骤:
步骤110:获取所述待测区域的行人图像和所述待测区域对应的区域模型。
其中,所述行人图像至少包括行人的头部图像,可以通过在所述待测区域安装摄像头,以采集经过所述待测区域的行人图像,具体的,所述摄像头可以采用多个枪机摄像头或球机摄像头组合的方式,以精准获取待测区域上行人的行人图像。
其中,区域模型的建立是采用平面图形的方式,即采用平面图形表示待测区域内的设施结构,在获取到行人图像后,在所述区域模型上的对应位置确定行人图像。
步骤120:基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点。
其中,在所述展示区内确定行人视线交叉点之前,需要先确定展示区内行人视线,然后根据所述行人视线,确定所述展示区内的行人视线交叉点,需要说明的是,由于所述展示区内的单个行人视线只能表示该行人目光看向的方向和大致区域,并无法精准落点到该行人的视线聚焦点,在实际应用过程中,利用展示区内的多个行人视线,确定出行人视线的视线交叉点,从而估计出行人视线最可能的落点位置。
其中,采用视线图形化的方式,在所述展示区内确定所述行人视线,即在平面图形表示的区域模型上,以线条的形式表示行人视线,所述行人视线包括视线起点和视线方向,视线起点可以用圆点表示,或者如图2和3中的,采用人像示意图表示视线起点,并以远离人像示意图的方向为视线方向。
本申请实施例提供的行人视线聚集区的确定方法,通过在区域模型上采用视线图形化的方式,体现出行人、展示区以及周边通道区域三者之间的关系。
需要说明的是,在实际应用中,在确认出行人视线之后,可以确定出该行人视线与其他行人视线的视线交叉点。在单个行人的行人视线上可以生成单个视线交叉点,例如,如图2所示,行人视线A只与行人视线B产生交点,故在行人视线A上至确定出一个视线交叉点,此外,单个行人的行人视线上也可以产生多个视线交叉点,例如,如图3所示,行人视线A与行人视线B、行人视线C及行人视线D均有视线交叉点,则在该行人视线A上产生3个视线交叉点。
其中,所述视线交叉点并不表示该点为对应的行人实际看向的位置,只是采用这种大量数据统计的方式,确定所述展示区内最容易被行人看到的位置。
步骤130:根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
需要说明的是,在步骤120中,由于视线交叉点并不一定表示对应的行人将目光看向该位置,在实际应用过程中,需要根据所述视线交叉点的密集程度,确定所述行人视线聚集区,例如,根据预设的第一阈值,在所述视线交叉点的密集程度大于所述第一阈值时,将对应区域确定为行人视线聚集区。
需要说明的是,所述行人视线聚集区的数量不局限于一个,也可以是多个,例如,在实际应用过程中,有多个区域的视线交叉点的密集程度大于所述第一阈值,又或者,在实际应用过程中,先将视线交叉点的密集程度大于所述第二阈值的区域确定为待选区域,然后根据所述待选区域的属性,从中确定出一定数量的行人视线聚集区。其中,根据所述待选区域的属性,可以是根据所述待选区域的面积、形状或处于所述展示区中的位置,又或者是根据所述待选区域中视线交叉点的密集程度排序。
本发明实施例提供的一种行人视线聚集区的确定方法,首先,通过获取所述待测区域的行人图像和所述待测区域对应的区域模型,然后,基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点,最后,由所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。应用本发明的技术方案,能够更科学的在展示区内确定周边通道区域上的行人视线聚集区,从而可以将需要展示的物品放置在行人视线聚集区。应用本发明的技术方案,能够更科学的在展示区内确定周边通道区域上的行人视线聚集区,从而可以将需要展示的物品放置在行人视线聚集区,以使待展示物品可以被更多的行人看到,从而吸引行人的视线。
图4示出了本发明提供的一种行人视线聚集区的确定方法的另一个实施例的流程图,该行人视线聚集区的确定方法由行人视线聚集区的确定设备执行。如图4所示,该行人视线聚集区的确定方法包括以下步骤:
步骤410:获取所述待测区域的行人图像和所述待测区域对应的区域模型。
步骤420:基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点。
步骤430:根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
步骤440:获取所述展示区内待展示物品的属性,所述待展示物品的属性包括待展示物品占地面积、行人可接触范围和待展示物品距周边物品的安全距离中的至少之一。
其中,所述行人可接触范围是指行人可以靠近至待展示物品的最小距离,例如,在实际展示过程中,待展示物品不可以被行人接触,则一般需要设置一个禁止进入的区域,当然,在实际展示过程中,也存在可以被行人直接接触的物品,例如待展示物品为衣物,行人可以直接拿起放下,又例如,待展示物品为汽车,行人不仅可以接触,甚至在一定条件下,可以进入汽车内部体验,此时的行人可接触范围可以设置为0。
需要说明的是,在实际展示过程中,所述待展示物品可以是可移动或可活动的物品,例如,所述待展示物品为机器人,机器人可以在一定范围内活动,或者机械手臂可移动,又或者,所述待展示物品为汽车,汽车的车门可以在一定范围内开启,此时需要保证所述待展示物品周边的一定区域内不存在其他展品,或者门店设施。
步骤450:基于所述待展示物品的属性和所述行人视线聚集区,生成待展示物品的放置区域。
其中,所述待展示物品的属性,可以确定所述待展示物品需要的展示面积,或者合适的展示方位,从而结合所述行人视线聚集区的具体属性,确定待展示物品的放置区域。
需要说明的是,在实际应用过程中,并不要求所述行人视线聚集区的面积一定大于所述待展示物品所需的展示面积,例如,所述行人视线聚集区可以容纳所述待展示物品核心部分,且该行人视线聚集区周边区域可以适应对应所述待展示物品,则可以将该行人视线聚集区作为待展示物品的放置区域。
本发明实施例中,利用所述行人视线聚集区的目的是:保证所述待展示物品所处位置更容易被行人看到,在所述待展示物品实际放置过程中,仍然需要结合所述展示区的实际情况确定所述放置区域,应用本发明的技术方案,可以行人视线聚集区的基础上,将待展示物品放置在更合理的位置。
图5示出了本发明提供的一种行人视线聚集区的确定方法的又一个实施例的流程图,该行人视线聚集区的确定方法由行人视线聚集区的确定设备执行。如图5所示,该行人视线聚集区的确定方法包括以下步骤:
步骤510:获取所述待测区域的行人图像和所述待测区域对应的区域模型。
步骤520:基于所述行人图像,预估每一行人的行人视线。
其中,基于所述行人图像,预估每一行人的行人视线,可以采用视线识别模型确定,具体的,将所述行人图像输入至预先训练的视线识别模型中,输出行人的头部姿态;然后,基于所述行人的头部姿态和所述区域模型,预估所述行人的行人视线。
需要说明的是,视线识别模型为一种利用深度学习算法建立的模型,采用的核心算法为img2pose,该核心算法可以直接估计行人图像的行人头部的6自由度信息。对于行人视线的估计任务,只需要获取世界坐标系下行人头部的朝向。
步骤530:基于预估的每一所述行人视线和所述区域模型,确定所述展示区内每一行人的有效行人视线。
其中,由于人眼存在一定的目视距离,且所述目视距离与行人所处环境相关,例如,根据展示区域的周边通道区域的实际情况确定,又例如,根据所述周边通道区域的灯光亮度和行人平均密集程度确定,又例如,根据行人的实际身高确定人眼的目视距离。
通过所述区域模型,确认人眼的目视距离,并结合预估的每一所述行人视线,确定所述展示区内每一行人的有效行人视线,保证更精准的确定行人的视线落点。
需要说明的是,在实际场景中,所述展示区存在一定的边界,这些边界可以分为两种,一种是存在实体边界,一种是存在虚拟边界;针对存在实体边界的情况,又分为透明边界和透明边界,即所述展示区包括可透视边界和不可透视边界,故需要获取所述展示区的边界,若所述行人的视线方向指向所述不可透视边界,则说明该行人的行人视线无法落点于展示区,则需要去除所述视线方向对应所述预估的行人视线。
具体的,所述行人视线包括视线方向,首先,根据所述区域模型,确定所述展示区内的可透视边界,然后,根据所述可透视边界和所述视线方向,确定每一行人的可透视行人视线,所述可透视行人视线包括:行人可透视观察展示区的视线;最后,根据所述可透视行人视线和预设的视线观察阈值,确定所述可透视边界对应的每一行人的有效行人视线。
其中,在实际应用过程中,所述视线观察阈值可以直接设置为人眼的目视距离,也可以基于所述眼的目视距离和区域模型,预先设定所述视线观察阈值。
步骤540:将所有行人的所述有效行人视线的交叉点,标记为所述展示区内的行人视线交叉点。
其中,所有行人的所述有效行人视线的交叉点,是指可以落入到所述展示区的行人视线相互交叉形成的交叉点,在实际应用过程中,即使行人的视线指向某一区域,但是可能由于障碍物或者区域的影响,该视线并不能落点于所述展示区,故需要基于所述行人图像和所述区域模型,确定可以落入到所述展示区的行人视线。
步骤550:根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
应用本发明的技术方案,能够有效去除展示区边界的干扰,且能够更准确的获得所述展示区内的行人视线,进一步减少对所述展示区内行人视线的误判情况。
需要说明的是,在实际应用过程中,所述展示区可以存在一个或多个可透视边界,若所述展示区包括一个可透视边界,则根据所述可透视边界对应的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区;若所述展示区包括两个以上可透视边界,此时,为了保证确定的行人视线聚集区更有利于放置被展示物品,本申请实施例在确定行人视线聚集区时,可以分别计算每一个所述可透视边界的行人视线聚集区,以及将所有所述可透视边界的行人视线聚集区的交集作为最终的行人视线聚集区,这样,保证所述周边通道区域的行人可以从任一所述可透视边界观察到最终的实现聚集区,从而使得放置在最终的行人视线聚集区的被展示物品,能够吸引更多的行人视线。
综上所述,本发明提供一种行人视线聚集区的确定方法,首先,获取所述待测区域的行人图像和所述待测区域对应的区域模型,然后,基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点,最后,由所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。应用本发明的技术方案,能够更科学的在展示区内确定周边通道区域上的行人视线聚集区,从而可以将需要展示的物品放置在行人视线聚集区,以使待展示物品可以被更多的行人看到,从而吸引行人的视线。
图6示出了本发明提供的一种行人视线聚集区的确定装置的实施例的结构示意图。如图6所示,该行人视线聚集区的确定装置600包括:第一获取模块610、视线交叉点确定模块620、行人视线聚集区确定模块630、第二获取模块640和放置区域生成模块650。
所述第一获取模块610,用于获取所述待测区域的行人图像和所述待测区域对应的区域模型。
所述视线交叉点确定模块620,用于基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点。
所述行人视线聚集区确定模块630,用于根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
在一种实现方式中,所述第二获取模块640,用于获取所述展示区内待展示物品的属性,所述待展示物品的属性包括待展示物品占地面积、行人可接触范围或待展示物品距周边物品的安全距离中的至少之一。
所述放置区域生成模块650,用于基于所述待展示物品的属性和所述行人视线聚集区,生成待展示物品的放置区域。
在一种实现方式中,所述视线交叉点确定模块620还用于:
基于所述行人图像,预估每一行人的行人视线。
基于预估的每一所述行人视线和所述区域模型,确定所述展示区内每一行人的有效行人视线。
将所有行人的所述有效行人视线的交叉点,标记为所述展示区内的行人视线交叉点。
在一种实现方式中,所述行人视线确定模块620还用于:
获取所述展示区的边界,所述展示区的边界包括行人可透视的第一边界和行人不可透视的第二边界。
若任一行人的所述行人视线的视线方向指向所述第二边界,则去除所述视线方向对应的任一行人的所述行人视线。
在一种实现方式中,所述行人视线确定模块620还用于:
将所述行人图像输入至预先训练的视线识别模型中,输出行人的头部姿态。
基于所述行人的头部姿态和所述区域模型,预估所述行人的行人视线。
在一种实现方式中,所述根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤,具体包括:
若所述展示区包括一个可透视边界,则根据所述可透视边界对应的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区;若所述展示区包括两个以上可透视边界,则根据每一所述可透视边界对应的所述行人视线交叉点的密集程度,分别计算每一所述可透视边界的行人视线聚集区,以及将所有可透视边界的行人视线聚集区的交集作为最终的行人视线聚集区。
本发明提供一种行人视线聚集区的确定装置,首先,通过第一获取模块610获取所述待测区域的行人图像和所述待测区域对应的区域模型,然后,视线交叉点确定模块630基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点,最后,行人视线聚集区确定模块670通过所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。应用本发明的技术方案,能够更科学的在展示区内确定周边通道区域上的行人视线聚集区,从而可以将需要展示的物品放置在行人视线聚集区,以使待展示物品可以被更多的行人看到,从而吸引行人的视线。
图7示出了本发明提供一种行人视线聚集区的确定设备的实施例的结构示意图,本发明具体实施例并不对行人视线聚集区的确定设备的具体实现做限定。
如图7所示,该行人视线聚集区的确定设备可以包括:处理器(processor)702、通信接口(Communications Interface)704、存储器(memory)706、以及通信总线708。
其中:处理器702、通信接口704、以及存储器706通过通信总线708完成相互间的通信。通信接口704,用于与其它设备比如客户端或其它服务器等的网元通信。处理器702,用于执行程序710,具体可以执行上述用于行人视线聚集区的确定方法实施例中的相关步骤。
具体地,程序710可以包括程序代码,该程序代码包括计算机可执行指令。
处理器702可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。行人视线聚集区的确定设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器706,用于存放程序710。存储器706可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序710具体可以被处理器702调用使行人视线聚集区的确定设备执行以下操作:
获取所述待测区域的行人图像和所述待测区域对应的区域模型。
基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点。
根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
在一种实现方式中,在所述根据所述视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤之后,还包括:
获取展示区内待展示物品的属性,所述待展示物品的属性包括待展示物品占地面积、行人可接触范围或待展示物品距周边物品的安全距离中的至少之一。
基于所述待展示物品的属性和所述行人视线聚集区,生成待展示物品的放置区域。
在一种实现方式中,所述基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点的步骤,具体为:
基于所述行人图像,预估每一行人的行人视线。
基于预估的每一所述行人视线和所述区域模型,确定所述展示区内每一行人的有效行人视线。
将所有行人的所述有效行人视线的交叉点,标记为所述展示区内的行人视线交叉点。
在一种实现方式中,所述行人视线包括视线方向;所述基于预估的每一所述行人视线和所述区域模型,确定所述展示内每一行人的有效行人视线的步骤,具体为:
根据所述区域模型,确定所述展示区内的可透视边界;
根据所述可透视边界和所述视线方向,确定所有行人的可透视行人视线;所述可透视行人视线包括:行人可透视观察展示区的视线信息;
根据所述可透视行人视线和预设的视线观察阈值,确定所述可透视边界对应的每一行人的有效行人视线。
在一种实现方式中,基于所述行人图像,预估每一行人的行人视线的步骤中,还包括:
将所述行人图像输入至预先训练的视线识别模型中,输出行人的头部姿态。
基于所述行人的头部姿态和所述区域模型,预估所述行人的行人视线。
在一种实现方式中,所述根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤,具体包括:
若所述展示区包括一个可透视边界,则根据所述可透视边界对应的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区;
若所述展示区包括两个以上可透视边界,则根据每一所述可透视边界对应的所述行人视线交叉点的密集程度,分别计算每一所述可透视边界的行人视线聚集区,以及将所有可透视边界的行人视线聚集区的交集作为最终的行人视线聚集区。
本发明实施例提供的一种行人视线聚集区的确定设备,所述一种行人视线聚集区的确定设备的存储器706,用于存放程序710,程序710具体可以被处理器702调用实现:首先,通过获取所述待测区域的行人图像和所述待测区域对应的区域模型,然后,基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点,最后,由所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。应用本发明的技术方案,能够更科学的在展示区内确定周边通道区域上的行人视线聚集区,从而可以将需要展示的物品放置在行人视线聚集区,以使待展示物品可以被更多的行人看到,从而吸引行人的视线。
本发明实施例提供了一种计算机可读存储介质,所述存储介质存储有至少一可执行指令,该可执行指令在行人视线聚集区的确定设备/装置上运行时,使得所述行人视线聚集区的确定设备/装置执行上述任意方法实施例中的行人视线聚集区的确定方法。
可执行指令具体可以用于使得行人视线聚集区的确定设备/装置执行以下操作:
获取所述待测区域的行人图像和所述待测区域对应的区域模型。
基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点。
根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
在一种实现方式中,在所述根据所述视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤之后,还包括:
获取展示区内待展示物品的属性,所述待展示物品的属性包括待展示物品占地面积、行人可接触范围或待展示物品距周边物品的安全距离中的至少之一。
基于所述待展示物品的属性和所述行人视线聚集区,生成待展示物品的放置区域。
在一种实现方式中,所述基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点的步骤,具体为:
基于所述行人图像,预估每一行人的行人视线。
基于预估的每一所述行人视线和所述区域模型,确定所述展示区内每一行人的有效行人视线。
将所有行人的所述有效行人视线的交叉点,标记为所述展示区内的行人视线交叉点。
在一种实现方式中,所述行人视线包括视线方向;所述基于预估的每一所述行人视线和所述区域模型,确定所述展示内每一行人的有效行人视线的步骤,具体为:
根据所述区域模型,确定所述展示区内的可透视边界;
根据所述可透视边界和所述视线方向,确定所有行人的可透视行人视线;所述可透视行人视线包括:行人可透视观察展示区的视线信息;
根据所述可透视行人视线和预设的视线观察阈值,确定所述可透视边界对应的每一行人的有效行人视线。
在一种实现方式中,基于所述行人图像,预估每一行人的行人视线的步骤中,还包括:
将所述行人图像输入至预先训练的视线识别模型中,输出行人的头部姿态。
基于所述行人的头部姿态和所述区域模型,预估所述行人的行人视线。
在一种实现方式中,所述根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤,具体包括:
若所述展示区包括一个可透视边界,则根据所述可透视边界对应的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区;
若所述展示区包括两个以上可透视边界,则根据每一所述可透视边界对应的所述行人视线交叉点的密集程度,分别计算每一所述可透视边界的行人视线聚集区,以及将所有可透视边界的行人视线聚集区的交集作为最终的行人视线聚集区。
本发明实施例提供的一种计算机可读存储介质,所述计算机可读存储介质中存储的可执行指令被执行时,首先,通过获取所述待测区域的行人图像和所述待测区域对应的区域模型,然后,基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点,最后,由所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。应用本发明的技术方案,能够更科学的在展示区内确定周边通道区域上的行人视线聚集区,从而可以将需要展示的物品放置在行人视线聚集区,以使待展示物品可以被更多的行人看到,从而吸引行人的视线。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。此外,本发明实施例也不针对任何特定编程语言。
在此处所提供的说明书中,说明了大量具体细节。然而能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。类似地,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。其中,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (10)
1.一种行人视线聚集区的确定方法,其特征在于,用于确定待测区域的行人视线聚集区,所述待测区域包括展示区以及周边通道区域,所述行人视线聚集区的确定方法包括:
获取所述待测区域的行人图像和所述待测区域对应的区域模型;
基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点;
根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
2.根据权利要求1所述的行人视线聚集区的确定方法,其特征在于,在所述根据所述视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤之后,还包括:
获取所述展示区内待展示物品的属性,所述待展示物品的属性包括待展示物品占地面积、行人可接触范围或待展示物品距周边物品的安全距离中的至少之一;
基于所述待展示物品的属性和所述行人视线聚集区,生成待展示物品的放置区域。
3.根据权利要求1所述的行人视线聚集区的确定方法,其特征在于,所述基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点的步骤,具体为:
基于所述行人图像,预估每一行人的行人视线;
基于预估的每一所述行人视线和所述区域模型,确定所述展示区内每一行人的有效行人视线;
将所有行人的所述有效行人视线的交叉点,标记为所述展示区内的行人视线交叉点。
4.根据权利要求3所述的行人视线聚集区的确定方法,其特征在于,所述行人视线包括视线方向;所述基于预估的每一所述行人视线和所述区域模型,确定所述展示内每一行人的有效行人视线的步骤,具体为:
根据所述区域模型,确定所述展示区内的可透视边界;
根据所述可透视边界和所述视线方向,确定每一行人的可透视行人视线,所述可透视行人视线包括:行人可透视观察展示区的视线;
根据所述可透视行人视线和预设的视线观察阈值,确定所述可透视边界对应的每一行人的有效行人视线。
5.根据权利要求3所述的行人视线聚集区的确定方法,其特征在于,在基于所述行人图像,预估每一行人的行人视线的步骤中,还包括:
将所述行人图像输入至预先训练的视线识别模型中,输出行人的头部姿态;
基于所述行人的头部姿态和所述区域模型,预估所述行人的行人视线。
6.根据权利要求1或4所述的行人视线聚集区的确定方法,其特征在于,所述根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区的步骤,具体包括:
若所述展示区包括一个可透视边界,则根据所述可透视边界对应的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区;
若所述展示区包括两个以上可透视边界,则根据每一所述可透视边界对应的所述行人视线交叉点的密集程度,分别计算每一所述可透视边界的行人视线聚集区,以及将所有可透视边界的行人视线聚集区的交集作为最终的行人视线聚集区。
7.一种行人视线聚集区的确定装置,其特征在于,所述行人视线聚集区的确定装置用于确定待测区域的行人视线聚集区,所述待测区域包括展示区以及周边通道区域,所述行人视线聚集区的确定装置包括:
第一获取模块,用于获取所述待测区域的行人图像和所述待测区域对应的区域模型;
视线交叉点确定模块,用于基于所述行人图像和所述区域模型,确定所述展示区内的行人视线交叉点;
行人视线聚集区确定模块,根据所述展示区内的所述行人视线交叉点的密集程度,确定所述展示区内的行人视线聚集区。
8.根据权利要求7所述的行人视线聚集区的确定装置,其特征在于,所述行人视线聚集区的确定装置还包括:
第二获取模块,用于获取所述展示区内待展示物品的属性,所述待展示物品的属性包括待展示物品占地面积、行人可接触范围或待展示物品距周边物品的安全距离中的至少之一;
放置区域生成模块,用于基于所述待展示物品的属性和所述行人视线聚集区,生成待展示物品的放置区域。
9.一种行人视线聚集区的确定设备,其特征在于,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-6任意一项所述的行人视线聚集区的确定方法的操作。
10.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一可执行指令,所述可执行指令在行人视线聚集区的确定设备/装置上运行时,使得行人视线聚集区的确定设备/装置执行如权利要求1-6任意一项所述的行人视线聚集区的确定方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211467615.6A CN115909402A (zh) | 2022-11-22 | 2022-11-22 | 行人视线聚集区的确定方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211467615.6A CN115909402A (zh) | 2022-11-22 | 2022-11-22 | 行人视线聚集区的确定方法、装置及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115909402A true CN115909402A (zh) | 2023-04-04 |
Family
ID=86495929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211467615.6A Pending CN115909402A (zh) | 2022-11-22 | 2022-11-22 | 行人视线聚集区的确定方法、装置及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115909402A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117156259A (zh) * | 2023-10-30 | 2023-12-01 | 海信集团控股股份有限公司 | 一种视频流获取方法及电子设备 |
-
2022
- 2022-11-22 CN CN202211467615.6A patent/CN115909402A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117156259A (zh) * | 2023-10-30 | 2023-12-01 | 海信集团控股股份有限公司 | 一种视频流获取方法及电子设备 |
CN117156259B (zh) * | 2023-10-30 | 2024-03-22 | 海信集团控股股份有限公司 | 一种视频流获取方法及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108875524B (zh) | 视线估计方法、装置、系统和存储介质 | |
CN104331168B (zh) | 显示调整方法和电子设备 | |
US20200273180A1 (en) | Deformable object tracking | |
JP5160235B2 (ja) | 画像中の物体の検出及び追跡 | |
WO2022116423A1 (zh) | 物体位姿估计方法、装置、电子设备及计算机存储介质 | |
CN103295016B (zh) | 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法 | |
WO2019036109A1 (en) | GENERATING A LOCALIZED DEPTH CARD | |
CN108805016B (zh) | 一种头肩区域检测方法及装置 | |
WO2020225562A1 (en) | Processing captured images | |
CN110503686A (zh) | 基于深度学习的物体位姿估计方法及电子设备 | |
CN112070782B (zh) | 识别场景轮廓的方法、装置、计算机可读介质及电子设备 | |
CN109800682A (zh) | 驾驶员属性识别方法及相关产品 | |
US11113571B2 (en) | Target object position prediction and motion tracking | |
JP7282216B2 (ja) | 単眼スチルカメラのビデオにおけるレイヤードモーションの表現と抽出 | |
CN106530407A (zh) | 一种用于虚拟现实的三维全景拼接方法、装置和系统 | |
JP2016014954A (ja) | 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。 | |
CN108846336A (zh) | 目标检测方法、装置及计算机可读存储介质 | |
CN115909402A (zh) | 行人视线聚集区的确定方法、装置及计算机可读存储介质 | |
WO2023284358A1 (zh) | 相机标定方法、装置、电子设备及存储介质 | |
CN107479715A (zh) | 利用手势控制实现虚拟现实交互的方法和装置 | |
US9924865B2 (en) | Apparatus and method for estimating gaze from un-calibrated eye measurement points | |
CN112861678B (zh) | 一种图像识别方法及装置 | |
CN115273219A (zh) | 一种瑜伽动作评估方法、系统、存储介质和电子设备 | |
Gonçalves et al. | Learning policies for attentional control | |
CN114022630A (zh) | 三维场景的重建方法、装置、设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |