CN108573333A - 实体店面的关键绩效指标的评估方法及其系统 - Google Patents
实体店面的关键绩效指标的评估方法及其系统 Download PDFInfo
- Publication number
- CN108573333A CN108573333A CN201711044461.9A CN201711044461A CN108573333A CN 108573333 A CN108573333 A CN 108573333A CN 201711044461 A CN201711044461 A CN 201711044461A CN 108573333 A CN108573333 A CN 108573333A
- Authority
- CN
- China
- Prior art keywords
- customer
- area
- monitoring
- entity storefront
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Strategic Management (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Computer Interaction (AREA)
- Game Theory and Decision Science (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明提供一种实体店面的关键绩效指标的评估方法及其系统。此方法适用于连接于影像捕获设备的数据处理装置,并且包括下列步骤。首先,自影像捕获设备取得于默认时间内所采集到的视频流,其中视频流包括多张输入画面,并且视频流的内容为实体店面的监控区域。接着,自输入画面中侦测出顾客,并且针对顾客进行追踪。之后,根据顾客以及监控区域中的感兴趣区域,产生监控数据,并且取得与实体店面相关的人流信息,其中人流信息包括通过位于实体店面的店门口的顾客计数线的进店人流。根据监控数据以及人流信息,产生实体店面的关键绩效指标的评估结果。
Description
技术领域
本发明涉及一种实体店面的关键绩效指标的评估方法及其系统。
背景技术
由于实体店面因电子商务平台兴起受到相当的冲击,因此近年来的营运尤其困难。大多数的零售业者逐步往全通路模式发展,或是致力研究新零售模式。然而,无论是传统零售模式、全通路模式或者是新零售模式,并没有提供一个科学测量以及数据化的方式来评估实体店面的关键绩效指标(key performance indicator,KPI)。
发明内容
有鉴于此,本发明提供一种实体店面的关键绩效指标的评估方法及其系统,其利用基于影像识别所产生的监控数据,通过数据统计和计算得出量化指标,以帮助实体店面评估绩效。
在本发明的一项实施例中,上述的方法适用于具有影像捕获设备以及数据处理装置的系统,并且包括下列步骤。首先,自影像捕获设备取得于默认时间内所采集到的视频流,其中视频流包括多张输入画面,并且视频流的内容为实体店面的监控区域。接着,自视频流中侦测出顾客,并且针对顾客进行追踪。之后,根据顾客以及监控区域中的感兴趣区域,产生监控数据,并且取得与实体店面相关的人流信息,其中人流信息包括通过位于实体店面的店门口的顾客计数线的进店人流。之后,根据人流数据以及监控数据,产生实体店面的关键绩效指标的评估结果。
在本发明的一项实施例中,上述的系统包括影像捕获设备以及数据处理装置,其中数据处理装置连接于影像捕获设备。影像捕获设备用以于默认时间内采集实体店面的监控区域的视频流,其中视频流包括多张输入画面。数据处理装置具有训练模型,用以自视频流中侦测出顾客并且针对顾客进行追踪,根据顾客以及监控区域中的感兴趣区域,产生监控数据,并且取得与实体店面相关的人流信息,以及根据人流信息以及监控数据,产生实体店面的关键绩效指标的评估结果,其中人流信息包括通过位于实体店面的店门口的顾客计数线的进店人流,训练模型用于识别出所述顾客的默认属性,默认属性用于产生前述监控数据。
附图说明
图1为根据本发明一项实施例所绘示的系统的框图。
图2为根据本发明一项实施例所绘示的实体店面的关键绩效指标的评估方法流程图。
图3A为根据本发明一项实施例所绘示的俯角顾客流量分析的示意图。图3B为图3A的俯视示意图。
图4A为根据本发明一项实施例所绘示的顾客人脸分析的示意图。
图4B为图4A的俯视示意图。
图5A为根据本发明一项实施例所绘示的橱窗分析的示意图。
图5B为图5A的俯视示意图。
图6A为根据本发明一项实施例所绘示的商品柜分析的示意图。
图6B为图6A的俯视示意图。
图7A为根据本发明一项实施例所绘示的结账顾客层与绩效分析的示意图。
图7B为图7A的俯视示意图。
图8A为根据本发明一项实施例所绘示的中岛展示柜分析的示意图。
图8B为图7A的俯视示意图。
图9为根据本发明一项实施例所绘示的实体店面的关键绩效指标的评估方法功能流程图。
图10为根据本发明一项实施例所绘示的数据训练方法的功能流程图。
附图标号说明
100:系统;
110、910:影像捕获设备;
120、920:数据处理装置;
122:通讯接口;
124:存储器;
126:处理器
S202~S208、S902~S920:步骤;
R3、R4、R5、R6、R7、R81、R82、R83、R84、R85、R86:兴趣区域;
P3、P3’、P4、P4’、P4”、P5、P5’、P5”、P6、P6’、P6”、P71、P72、P73、P74、P8、P8’、P8”:顾客;
F3、F3’、F4、F4’、F4”、F5、F5’、F5”、F6、F6’、F6”、F71、F72、F73、F74、F8、F8’:边框;
H、H’:顾客的手部;
930:云平台;
940:用户装置。
1000:训练系统
PM:微调人员
TM:验证人员
PT:标注人员
BD:销售人员
PM1~PM5、TMS1~TMS5、PTS1~PTS3、BDS1~BDS3:步骤流程
具体实施方式
接下来将会配合附图来详细描述本发明的部分实施例,以下的描述所引用的元件标号,当不同附图出现相同的元件标号将视为相同或相似的元件。这些实施例只是本发明的一部分,并未公开本发明的所有可实施方式。更确切的说,这些实施例只是本发明的权利要求中的方法与系统的范例。
图1为根据本发明一项实施例所绘示的系统的框图。首先图1先介绍系统的所有构件以及配置关系,详细功能将配合图2一并揭示。
请参照图1,系统100至少包括影像捕获设备110以及数据处理装置120。影像捕获设备110可以是设置于实体店面的天花板上或是墙上等处,以对特定区域进行监控,而数据处理装置120可以是有线或是无线连接至影像捕获设备110。
影像捕获设备110用以采集影像并且包括具有透镜以及感光元件的摄像镜头。感光元件用以感测进入透镜的光线强度,进而产生影像。感光元件可以例如是电荷耦合器件(charge coupled device,CCD)、互补性金属氧化物半导体(complementary metal-oxidesemiconductor,CMOS)器件或其它类似器件。影像捕获设备110可以是分辨率为400万以上像素的网络监控摄影机(IP Camera)。在本实施例中,影像捕获设备110可以是具有广角镜头,并且以大于30度并且小于90度的预设俯角拍摄(bird’s eye view angle,例如60±15度的俯角),以采集到足够的对象,而此种安装方式并不会影响实体店面的美观。且由于本发明的数据处理装置的运算能力,图像处理装置110不具有如现有技术一样离地面3公尺的最低安装高度限制,即可有效发挥功能。在另一项实施例中,影像捕获设备110可以是具有鱼眼镜头,并且安装于2.5公尺以上的高度,其可以较少的数量来涵盖最大的拍摄视野,以大幅度地降低设置成本。此外,影像捕获设备110可支持实时流送协议(real timestreaming protocol,RTSP)以及H.264或更新的编码,并且具有每秒可传输15张影像画面的性能。
数据处理装置120可以是具有运算能力并且具有通讯接口122、存储器124以及处理器126的电子装置,其可以例如是个人计算机、文件服务器、数据库服务器、应用程序服务器、工作站等。通讯接口122用以提供数据处理装置120与影像捕获设备110以及其它装置进行联机,其可以例如是支持WiMAX通讯协议、Wi-Fi通讯协议、2G通讯协议、3G通讯协议、4G通讯协议或5G通讯协议的无线网络通讯芯片、天线等电子元件。存储器124用以存储影像、数据、程序代码等数据,其可以例如是任意型式的固定式或可移动式随机存取存储器(randomaccess memory,RAM)、只读存储器(read-only memory,ROM)、闪存(flash memory)、硬盘或其它类似装置、集成电路及其组合。处理器126可以是中央处理单元(central processingunit,CPU)、应用处理器(application processor,AP)、专用集成电路(applicationspecific integrated circuits,ASIC),或是其它可编程的一般用途或特殊用途的微处理器(microprocessor)、数字信号处理器(digital signal processor,DSP)、图形处理器(graphics processing unit,GPU)或其它类似装置、集成电路及其组合。
以下即搭配图1的系统100的各元件装置列举实施例,以说明系统100执行实体店面的关键绩效指标的评估方法的详细步骤。
图2为根据本发明一项实施例所绘示的实体店面的关键绩效指标的评估方法流程图。
请同时参照图1以及图2,首先,数据处理装置120的通讯接口122自影像捕获设备110取得于默认时间内所采集到的视频流(步骤S202)。此处的默认时间可以是每天实体店面的营业时间,而数据处理装置120将不断地通过通讯接口122接收来自影像捕获设备110的视频流,其中视频流的内容即为实体店面的监控区域。此处通讯接口122所接收到的视频流为已编码的视频流,而处理器126会将所接收到的已编码的视频流进行解码,以将视频流解码成一序列的输入画面,以开始进行图像处理。
处理器126将自输入画面中侦测出顾客,并且针对顾客进行追踪(步骤S204)。此处处理器126将通过影像识别的方式,在侦测到顾客进入输入画面时,开始针对此顾客进行追踪。举例来说,基于影像捕获设备110是采集固定监控区域的画面,因此处理器126可以是以背景相减法、光流法等一般用以检测移动物体的方式来进行顾客的侦测以及追踪。此外,处理器126亦可以是以脸、手、脚、头、姿体型态等人体特征的识别来进行更为精确的顾客侦测以及追踪,并且根据衣着特征来排除追踪到店员以及保安人员的可能性。本发明不在此设限。
接着,处理器126将根据顾客以及监控区域中的感兴趣区域,产生监控数据(步骤S206)。接着,处理器126将取得与实体店面相关的人流信息(步骤S207),并且将根据人流信息以及监控数据,产生实体店面的关键绩效指标的评估结果(步骤S208)。此处的感兴趣区域可以是位于店外(例如橱窗、走道)、店门口或是店内的商品陈列处(例如,店门口或是店内的商品柜、中岛展示柜)、结账柜台、楼梯口、试衣间入口等。当处理器126追踪到顾客进入这些感兴趣区域时,将会开始进行监控。此处的监控内容可以是感兴趣区域的顾客人数、顾客停留时间、顾客属性、顾客行为等,而监控结果将会作为监控数据。此处实体店面的人流信息是基于通过位于店门口处的顾客计数线的进店人流。在其它实施例中,人流信息更可以包括店外人流以得到更为完整的人流信息,有利于后续进行不同方面的评估。此外,本实施例中取得人流信息的方式可以是基于影像分析(如后续图3A以及图3B的实施例),然而本发明不在此设限。处理器126将根据人流信息以及监控数据通过数据统计、计算或者是交叉比对而得出量化指标,以帮助实体店面评估绩效来进行重要决策,从而减少成本支出以及提升销售业绩。为了方便明了,以下将以不同分析情境的实施例来具体说明上述步骤的实行方式。
图3A为根据本发明一项实施例所绘示的俯角顾客流量分析的示意图,以说明基于影像分析来取得人流信息的方式,而图3B为图3A的俯视示意图。此处先说明的是,图3A以及图3B的示意图为相同顾客于连续输入画面中的移动轨迹,而图中加了撇号与不加撇号的相同标号表示不同输入画面中的相同对象。
请搭配参照图3A以及图3B,一般设置于天花板的影像捕获设备是以俯角90度往地面拍摄而往往会因脸部或身体其它部位被头部遮蔽影响后续的影像分析,并且此种安装位置将会影响店铺美观以及具有最低安装高度限制。本实施例中的影像捕获设备110是设置于天花板并且以小于90度的预设俯角往地面拍摄。以店流量的计数来说,本实施例中的影像捕获设备110可以是设置在店门口内的天花板上,并且以60±15度的俯角往店外拍摄,以拍摄到足够的人体对象,并且不影响实体店面的外观,亦无最低安装高度限制。当数据处理装置120的处理器126侦测到顾客P3出现在输入画面中时,将会对应地给予一个边框F3并且开始追踪其移动方向。当处理器126侦测到顾客P3从顾客计数线R3通过时(即,连续的输入画面中顾客P3’以及边框F3’的所在位置),会进行进店人流的计数并且记录于存储器124中。此外,处理器126亦可一并地将此顾客的移动路线记录于存储器124中。
图3A~图3B的实施例可进一步地延伸至人脸分析,以提供高精准度的顾客的属性数据。具体来说,图4A为根据本发明一项实施例所绘示的顾客人脸分析的示意图,图4B为图4A的俯视示意图,其中图4A以及图4B的示意图为相同顾客于连续输入画面中的移动轨迹,而图中加了撇号与不加撇号的相同标号表示不同输入画面中的相同对象。
请搭配参照图4A以及图4B,当数据处理装置120的处理器126侦测到顾客P4出现在输入画面中时,将会给予脸部一个边框F4并且开始追踪其移动方向。当处理器126侦测到顾客P4从顾客计数线R4通过时(即,从连续的输入画面中顾客P4’以及边框F4’的所在位置移动到顾客P4”以及边框F4”的所在位置),除了会进行进店人流的计数以及移动路线的记录外,更可利用人脸识别的方式来进行性别、年龄、种族等等的判别,并且记录于存储器124中。
值得注意的是,有关于图3A~图4B的影像捕获设备110的默认俯角设定以及图4A~图4B的人脸识别并不限于店门口外的应用,其更可以是设置于店内楼梯口、试穿间或者是搭配后续的实施例而产生更为精准的分析数据。
详细来说,不同地点区域的人流代表不同涵义。店外走道的人流代表经过店外人数,店门口的人流代表进入店内人数,楼梯口的人流代表上下楼的人数,而试穿间入口的人流代表试穿人数。处理器126可进一步地利用人流计数结合客层属性(性别、年龄、种族)以计算出更多的数据指标。在一范例中,处理器126可以进一步地根据店外人流、进店人流、客层属性,通过比较目标客层,以判断店外人潮是否符合目标客层,或是通过比较营业时间区间,以判断不同营业时间区间中的客层分布,或者是通过比较不同分店,以判断不同分店的客层分布。在一范例中,处理器126可以进一步地根据上下楼人数以及客层属性,通过比较营业时间区间,以判断不同营业时间区间中的客层人流与楼层转换率。在一范例中,处理器126可以进一步地根据试穿人数以及客层属性,通过比较营业时间区间,以判断不同营业时间区间中的客层与试穿人数的分布,或者是通过比较不同分店,以判断不同分店的客层与试穿人数的分布。如此一来,不同营业时间区间的客层变化可以作为销售决策指标,而不同分店的客层变化可作为调整品牌结构的参考指标。图5A为根据本发明一项实施例所绘示的橱窗分析的示意图,图5B为图5A的俯视示意图。此处先说明的是,图5A以及图5B的示意图为相同顾客于连续输入画面中的移动轨迹,而图中加了撇号与不加撇号的相同标号表示不同输入画面中的相同对象。此外,本实施例中的监控区域为实体店面的店门口外,而感兴趣区域为橱窗前。
请搭配参照图5A以及图5B,当数据处理装置120的处理器126侦测到顾客P5进入监控区域时(即,顾客P5开始出现在输入画面中),将会对应地给予顾客P5一个边框F5并且开始追踪其移动方向。当处理器126侦测到顾客P5进入到橱窗前R5时(即,连续的输入画面中顾客P5’以及边框F5’的所在位置),将会开始累计停留时间直到侦测到此顾客离开橱窗前R5(例如到了连续的输入画面中顾客P5”以及边框F5”的所在位置)。若停留时间超过有效停留时间(例如5秒,但可视橱窗商品的属性而调整),则处理器126会将侦测结果记录于存储器124中。若停留时间不超过有效停留时间,则处理器126则不会将其视为有效的停留,因此不会记录侦测结果。处理器126可利用侦测结果取得潜在顾客于橱窗前的停留人数以及停留时间。更进一步地,处理器126可进一步地搭配前述实施例的顾客人脸分析,以取得潜在顾客的性别。
图6A为根据本发明一项实施例所绘示的商品柜分析的示意图,图6B为图6A的俯视示意图,其中图6A以及图6B的示意图为相同顾客于连续输入画面中的移动轨迹,而图中加了撇号与不加撇号的相同标号表示不同输入画面中的相同对象。本实施例中的监控区域为店内,而感兴趣区域为商品柜前。
请搭配参照图6A以及图6B,当数据处理装置120的处理器126侦测到顾客P6进入监控区域时(即,顾客P6开始出现在输入画面中),将会给予顾客P6一个边框F6并且开始进行追踪。当处理器126侦测到顾客P6进入到商品柜前R6时(即,连续的输入画面中顾客P6’以及边框F6’的所在位置),将会开始记录直到侦测到此顾客离开橱窗前R6(例如到了连续的输入画面中顾客P6”以及边框F6”的所在位置)。接着,处理器126将会计算此顾客在商品柜前R6的滞留时间。若滞留时间超过有效滞留时间(例如10秒,但可视商品的属性而调整),则处理器126会将滞留时间记录于存储器124中,以作为顾客滞留时间的数据。若停留时间不超过有效滞留时间,则处理器126则不会将此侦测视为有效的滞留,因此不会记录侦测结果。处理器126可利用侦测结果取得特定的商品柜前的滞留人数以及滞留时间。
就针对图5A、图5B的店外橱窗以及图6A、图6B店内商品柜前的监控数据来说,处理器126更可交叉地利用其它监控数据以计算出更多的数据指标。举例来说,处理器126可以进一步地取得商品柜的触摸次数以及人流计数,从而计算出商品柜的人均触摸次数(即,触摸次数/进店人数)、商品柜的人均停留人次(即,商品柜前的滞留人数/进店人数)、商品柜的人均停留时间(即,商品柜前的滞留时间/进店人数)、橱窗的停留人次转换率(即,橱窗前的停留人数/店前人数)以及橱窗进店转换率(即,橱窗进店人数/橱窗前的停留人数)。此外,这些数据还可再依据不同营业时间区间进行比较,以作为销售成败指标,或者是依据不同分店进行比较,以作为排名基础来找出须检讨或是可效仿的对象。
更进一步地,处理器126可从店外人流,到店内的橱窗停留人数、橱窗停留转换率、橱窗进店人数、橱窗进店转换率、进店人数、进店转换率,直到离开店内的交易笔数提袋率(即,交易笔数/进店人数),以追踪顾客体验过程,以分析出橱窗停留或是进店后是否促成交易,并且提供比较多种转换率的正负相关性,藉以判断出冷热门商品以及店内冷热点。
图7A为根据本发明一项实施例所绘示的结账顾客层与绩效分析的示意图,图7B为图7A的俯视示意图。本实施例中的监控区域为店内的结账柜台,而感兴趣区域为结账排队区域。
请搭配参照图7A以及图7B,当数据处理装置120的处理器126侦测到顾客进入监控区域时,将会分别给予每个顾客一个边框并且开始进行追踪。当处理器126侦测到对应于边框F71的顾客P71进入到结账排队区域R7时,将会开始记录直到侦测到顾客P71离开结账排队区域R7。处理器126将会以同样的方式针对对应于边框F72~F74的顾客P72~P74记录侦测结果。处理器126可利用侦测结果取得排队人数以及排队时间。更进一步地,处理器126可进一步地搭配前述实施例的顾客人脸分析,以取得结账顾客的性别。
更进一步地,处理器126可交叉地利用其它监控数据以计算出更多的数据指标。在一范例中,处理器126可以进一步地取得柜台排班人数、客层属性、营业时间区间、进店客流量,从而计算出排队转换率(即,排队人数/进店客流量)、不同营业时间区间的排队人数分布、不同营业时间区间的排队时间分布、店员顾客比例(即,排队人数/柜台排班人数),以提供结账柜台的绩效。举例来说,客层属性可作为设定目标客户的依据,以作为结账推销方式的策略。另一方面,不同营业时间区间对于排队转换率的比较可以作为结账柜台绩效量化的标准。更进一步地,假设处理器126可取得到其它间分店的监控数据,更可通过不同店的排段转换率与店员顾客比例来进行综合比较,以调整不同分店间的人力配置。
图8A为根据本发明一项实施例所绘示的中岛展示柜分析的示意图,图8B为图8A的俯视示意图,其中图8A以及图8B的示意图为相同顾客的手部于连续输入画面中的移动轨迹,而图中加了撇号与不加撇号的相同标号表示不同输入画面中的相同对象。本实施例中的监控区域为中岛展示柜,而感兴趣区域为中岛展示柜中的商品摆放区域。
请搭配参照图8A以及图8B,当数据处理装置120的处理器126侦测到顾客的手部H8进入监控区域时,将会给予顾客的手部H8一个边框F8并且开始进行追踪。当处理器126侦测到顾客的手部H8进入到商品摆放区域R81~R86中的商品摆放区域R86时(即,连续的输入画面中顾客的手部H8’以及边框F8’的所在位置),将会开始记录直到侦测到此顾客的手部H8’离开商品摆放区域R86(例如到了连续的输入画面中顾客P8”以及边框F8”的所在位置)并且将侦测结果记录于存储器124中。接着,处理器126可利用侦测结果取得商品摆放区域R86所对应的商品的触摸时间以及触摸次数,进而得知中岛展示柜的展示绩效。
更进一步地,处理器126可交叉地利用其它监控数据以计算出更多的数据指标。在一范例中,处理器126可以进一步地取得不同时间区间内商品的触摸时间以及触摸次数,以提供不同时间区间内调整中岛展示柜中商品的摆放,以更提升其展示绩效。在一范例中,处理器126可进一步地取得进店客流量,以判断商品的触摸次数及/或触摸时间与进店客流量的相关程度。当进店客流量上升但触摸机会下降时,即验证此商品不具吸引力。另一方面,当进店客流量下降但触摸机会上升时,即验证此商品较具吸引力。在一范例中,处理器126可进一步地取得进店客层信息,以判断商品的触摸次数及/或触摸时间与进店客层信息的相关程度。当触摸机会随着进店客层信息上升或下降,即验证此商品的目标客层。在一范例中,处理器126可进一步地取得提袋率,以判断商品的触摸次数及/或触摸时间与提袋率的相关程度。当触摸机会与提袋率为正相关或是负相关时,即验证此商品与顾客的交易行为有密切关系。
在本实施例中,数据处理装置120在产生如上所述的各种关键绩效指标的评估结果后,可将此评估结果上传至云平台,供实体店面的业者通过用户装置下载,以观看评估结果。此处的用户装置可以是移动装置、平板计算机、笔记本电脑、个人计算机等等,以供业者在任何地点观看。在另一项实施例中,数据处理装置120与云平台可以整合成云服务器,以同时达到运算以及提供下载的功能,本发明不在此设限。
以下将以图9根据本发明一项实施例所绘示的实体店面的关键绩效指标的评估方法功能流程图来说明其中一种实行方式。
请参照图9,首先,影像捕获设备910将于实体店面的每日营业时间内,采集实体店面的监控区域的视频流并且通过RTSP传输至数据处理装置920。此处的影像捕获设备910以及数据处理装置920相似于前述图1中的影像捕获设备110以及数据处理装置120,于此不再赘述。
接着,数据处理装置920将开始对视频流进行解码(步骤S902),以将视频流解码成一序列的输入画面。数据处理装置920将对这些输入画面进行图像处理(步骤S904),以提取出影像中的对象,例如人体、人脸或手部,并且依分析设定判断是否符合条件(步骤S906)。此处的分析设定可以例如是前述图3A~图8B有关于俯角顾客流量、橱窗、商品柜、顾客人脸、结账顾客层与绩效以及中岛展示柜等分析情境上与感兴趣区域相关的设定。若有输入画面不符合条件,则数据处理装置920将不针对这些输入画面进行处理(步骤S908)。若符合条件,则数据处理装置920将会产生此输入画面的相关数据(步骤S910)以及元数据(metadata,步骤S912)。此处的数据为后续所需分析的输入影像数据,而元数据为对于这些输入影像数据的相关描述,例如时间戳、顾客标识符、顾客属性等。需说明的是,步骤S902~S912会在每日营业时间内不断地执行,直到营业时间结束为止。
实体店面的营业时间结束后,数据处理装置920将开始根据步骤S910所产生符合条件的输入画面的相关数据以及步骤S912所产生的元数据来进行分类演算(步骤S914)的输入画面的相关数据针对先前自输入影像所提取出的对象进行分类,并且将分类的结果写回至元数据中(步骤S912)。举例来说,数据处理装置920可按照人体、人脸来分类出顾客的性别、年龄层。此外,数据处理装置920更可进一步地根据上述分类来统计出多个分析指标,并且将分析指标写回至元数据中。此处的分析指标已于先前的实施例说明,于此不再赘述。附带一提的是,为了提升步骤S904以及步骤S914对于输入画面的图像处理以及分类演算的性能,数据处理装置920内所存储的影像分析模型(又称为「训练模型」)是在训练阶段时基于实体店面所提供的影片来进行适应性与定制化的微调,以提升预测的准确性,此细节将于稍后说明。
数据处理装置920在完成分类演算以及元数据写入后,会将元数据进行数据压缩(步骤S916),以压缩成云930的存储格式。接着,数据处理装置920将开始针对所欲上传的数据清单进行数据扫描(步骤S918),而在扫描完成后,会将压缩的数据放置在缓冲区并且开始执行数据上传(步骤S920),以存储至云平台930。实体店面的业者可通过用户装置940自云平台930下载云数据以观看零售店面的评估绩效。
以下将说明本实施例中用以训练影像分析模型的系统架构,其主要是用以提升前述步骤S904以及步骤S914有关于图像处理以及分类演算的性能。此处用以训练影像分析模型的系统可以是数据处理装置920的开发端系统,其可以是通过云平台与数据处理装置920联机。一般来说,数据处理装置920可以是利用一般用于对象识别的影像分析模型(以下称为「基本模型」)来针对输入画面进行图像处理以及分类演算,然而此基本模型不见得适用于所有的场景以及不同类型的影像捕获设备,因此需要进行适应性的微调。举例来说,当实体店面具有背景复杂的场景时(例如店内的大量服饰),容易造成识别模型的误判。又例如,当实体店面所拍摄的影片是利用鱼眼镜头时,由于超过一半的画面将会是倒置的画面而基本模型并无法有效的进行对象识别,甚至需要额外判断是否将影像画面倒转等复杂度较高的分析步骤。因此,上述两种例子可进行如同图10的流程来微调基本模型,以使微调后的模型能够适应性地达到精准的对象识别以及分类。
详细来说,当开始进行基本模型的微调阶段(或称「训练阶段」)时,训练系统将会要求实体店面提供所录制的影片。上述所录制的影片可视为训练数据,而训练数据可以是多组文件夹文件,并且每组文件夹文件可以是具有400~600张影像。训练系统会先将训练数据输入基本模型来进行预判,并且以元数据的方式来标记训练数据中的对象以及判别对象的属性。接着,标记后的训练数据可以输出给训练人员,并且训练人员将调整预判不足的部分,以微调基本模型。之后,再将微调后的基本模型写入数据库并且提供至例如是图1以及图9中的数据处理装置120、920。如此一来,微调后的基本模型可以特别针对实体店面的场景以及其所采用的影像捕获设备达到精准的对象识别以及分类。
具体而言,图10为根据本发明一项实施例所绘示的数据训练方法的功能流程图,而图10的流程适用于前述用以训练影像分析模型的训练系统。
请参照图10,当微调人员PM开始通过训练系统1000启动模型微调(PM1)的程序时,若训练系统1000可自数据库(例如是存储于云平台)取得实体店面的影像数据,则将进行数据下载(TMS2),其中所下载的影像数据为已经由基本模型所标注后的数据。接着,验证人员TM将开始进行数据标注验证(TMS1),以判断影像数据中各个影像中的对象是否标注正确。
当不符合验证标准时(即,准确率无法达到预设标准),则标注人员PT将会开始进行数据标注程序(PTS1)以修改标注,并且在数据标注结束(PTS2)后,将修改后的数据存储于数据库(PTS3)。当符合验证标准(准确率达到预设标准)或者是标注人员PT修改完标注并且训练系统1000重新下载更新后的数据(TMS2)后,则将进行数据训练(TMS3),以利用具有准确标注的影像数据来微调基本模型(TMS3),并且将训练后的数据写回至数据库(TMS4),再由数据库中的关联模型(relational model,TMS5)来调整基本模型,进而产生微调后的基本模型(即前述所谓的「训练模型」)。此处,微调后的模型将会传送至例如是图1以及图9中的数据处理装置120、920。
另一方面,当微调人员PM开始通过训练系统1000启动模型微调(PM1)的程序时,若训练系统1000无法自数据库取得实体店面的影像数据,将会要求例如是图1以及图9中的数据处理装置120、920进行数据准备(PM2)以及数据上传(PM3)。之后,训练系统1000将以基本模型开始先进行数据处理(PM4),以基于基本模型来先标注影片数据,而在数据处理结束后(PM5),存储至数据库,以供数据下载(TMS2)。接着,可以继续到前述的TMS2,以让验证人员TM开始进行数据标注验证。
附带一提的是,本实施例更可提供实体店面的销售店员BD观看具有标注的影像数据。当店员BD提出影片要求(BDS1)时,训练系统1000可以进行影片与模型准备程序(BDS2),以将标注合成于影像数据中,并且展示给销售店员BD观看(BDS3)。综上所述,本发明所提出的实体店面的关键绩效指标的评估方法及其系统,其可在不打扰顾客的前提下,利用基于影像识别所产生的监控数据,通过数据统计和计算得出量化指标,从中掌握顾客的偏好,以帮助实体店面评估绩效来进行重要且精准的决策,从而减少成本支出、改善商店营运以及提升销售业绩。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (13)
1.一种实体店面的关键绩效指标的评估方法,其特征在于,适用于连接于影像捕获设备的数据处理装置,所述方法包括下列步骤:
自所述影像捕获设备取得于默认时间内所采集到的视频流,其中所述视频流包括多张输入画面,并且所述视频流的内容为所述实体店面的相关监控区域;
自所述输入画面中侦测出至少一位顾客,并且针对所述顾客进行追踪;
根据所述顾客以及所述监控区域中的感兴趣区域,产生监控数据;
取得与所述实体店面相关的人流信息,其中所述人流信息包括通过位于所述实体店面的店门口的顾客计数线的进店人流;以及
根据所述监控数据以及所述人流信息,产生所述实体店面的所述关键绩效指标的评估结果。
2.根据权利要求1所述的方法,其特征在于,根据所述顾客以及所述监控区域中的所述感兴趣区域,产生所述监控数据的步骤更包括:
利用人脸识别技术,判断所述顾客的属性,以作为所述监控数据。
3.根据权利要求2所述的方法,其特征在于,所述影像捕获设备设置于天花板并且以预设俯角采集所述监控区域的所述视频流,其中所述预设俯角大于30度并且小于90度。
4.根据权利要求2所述的方法,其特征在于,所述影像捕获设备具有鱼眼镜头。
5.根据权利要求1所述的方法,其特征在于,根据所述顾客以及所述监控区域中的所述感兴趣区域,产生所述监控数据的步骤包括:
当侦测到所述顾客位于所述感兴趣区域时,累计所述顾客于所述感兴趣区域的连续时间直到侦测到所述顾客离开所述感兴趣区域;
判断所述连续时间是否超过有效连续时间;
若是,记录侦测结果以作为所述监控数据,其中所述侦测结果包括所述连续时间;以及
若否,不记录所述侦测结果。
6.根据权利要求5所述的方法,其特征在于,所述侦测结果更包括所述顾客的属性以及人数。
7.根据权利要求1所述的方法,其特征在于,所述感兴趣区域为所述实体店面的店外的橱窗前,而根据所述顾客以及所述监控区域中的所述感兴趣区域,产生所述监控数据的步骤包括:
当侦测到所述顾客位于所述橱窗前时,累计所述顾客的停留时间直到侦测到所述顾客离开所述橱窗前;
判断所述停留时间是否超过有效停留时间;
若是,记录侦测结果以作为所述监控数据,其中所述侦测结果包括所述停留时间以及停留人数;以及
若否,不记录所述侦测结果。
8.根据权利要求1所述的方法,其特征在于,所述感兴趣区域为所述实体店面的店内的商品柜前,而根据所述顾客以及所述监控区域中的所述感兴趣区域,产生所述监控数据的步骤包括:
当侦测到所述顾客位于所述商品柜前时,累计所述顾客的滞留时间直到侦测到所述顾客离开所述商品柜前;
判断所述滞留时间是否超过有效滞留时间;
若是,记录侦测结果以作为所述监控数据,其中所述侦测结果包括所述滞留时间以及滞留人数;以及
若否,不记录所述侦测结果。
9.根据权利要求1所述的方法,其特征在于,所述感兴趣区域为所述实体店面的店内的结账排队区域,而根据所述顾客以及所述监控区域中的所述感兴趣区域,产生所述监控数据的步骤包括:
当侦测到所述顾客位于所述结账排队区域时,累计所述顾客的排队时间直到侦测到所述顾客离开所述商品柜前;
记录侦测结果以作为所述监控数据,其中所述侦测结果包括所述排队时间以及排队人数。
10.根据权利要求1所述的方法,其特征在于,所述感兴趣区域为所述实体店面的店内的中岛展示柜,而根据所述顾客以及所述监控区域中的所述感兴趣区域,产生所述监控数据的步骤包括:
当侦测到所述顾客的手部位于所述中岛展示柜的特定商品摆放区域时,累计所述顾客的所述手部的触摸时间直到侦测到所述顾客的所述手部离开所述特定商品摆放区域;
记录侦测结果以作为所述监控数据,其中所述侦测结果包括所述触摸时间以及触摸次数。
11.根据权利要求1所述的方法,其特征在于,在自所述影像捕获设备取得于所述默认时间内所采集到的所述视频流之前,更包括:
取得关联于所述实体店面的训练模型,其中所述训练模型是由开发端系统基于所述影像捕获设备自所述实体店面采集所述监控区域的训练视频流所构造。
12.根据权利要求11所述的方法,其特征在于,所述开发端系统构造所述训练模型的步骤包括:
取得关联于所述训练视频流的影像数据,其中所述影像数据包括多个对象标注,所述对象标注是基于关联于对象识别算法的基本模型;
判断所述影像数据中的所述对象标注是否准确;以及
若不准确,则修改所述对象标注,借此更新所述基本模型,以产生所述训练模型。
13.一种实体店面的关键绩效指标的评估系统,其特征在于,包括:
影像捕获设备,用以于默认时间内采集所述实体店面的监控区域的视频流,其中所述视频流包括多张输入画面,并且所述视频流的内容为所述实体店面的监控区域;
数据处理装置,具有训练模型,所述数据处理装置连接于所述影像捕获设备,用以接收所述视频流,自所述输入画面中侦测出至少一位顾客,并且针对所述顾客进行追踪,根据所述顾客以及所述监控区域中的感兴趣区域,产生监控数据,取得与所述实体店面相关的人流信息,以及根据所述监控数据以及所述人流信息,产生所述实体店面的所述关键绩效指标的评估结果,其中所述人流信息包括通过位于所述实体店面的店门口的顾客计数线的进店人流,其中所述训练模型用于识别出所述顾客的至少一个默认属性,所述默认属性用于产生所述监控数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762470887P | 2017-03-14 | 2017-03-14 | |
US62/470887 | 2017-03-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108573333A true CN108573333A (zh) | 2018-09-25 |
Family
ID=63576399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711044461.9A Pending CN108573333A (zh) | 2017-03-14 | 2017-10-31 | 实体店面的关键绩效指标的评估方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108573333A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214357A (zh) * | 2018-09-30 | 2019-01-15 | 赵学义 | 一种基于人脸识别算法进行数据挖掘的方法以及电子设备 |
CN109886727A (zh) * | 2019-01-08 | 2019-06-14 | 秒针信息技术有限公司 | 揽客效率的评估方法及装置 |
CN110348405A (zh) * | 2019-07-16 | 2019-10-18 | 图普科技(广州)有限公司 | 线下交互数据获取方法、装置及电子设备 |
CN110738782A (zh) * | 2019-10-24 | 2020-01-31 | 名创优品(横琴)企业管理有限公司 | 一种收银排队分析方法及系统 |
CN111126119A (zh) * | 2018-11-01 | 2020-05-08 | 百度在线网络技术(北京)有限公司 | 基于人脸识别的到店用户行为统计方法和装置 |
CN111681018A (zh) * | 2019-03-11 | 2020-09-18 | 宏碁股份有限公司 | 顾客行为分析方法与顾客行为分析系统 |
CN112257660A (zh) * | 2020-11-11 | 2021-01-22 | 汇纳科技股份有限公司 | 无效客流的去除方法、系统、设备及计算机可读存储介质 |
JP2021093649A (ja) * | 2019-12-11 | 2021-06-17 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
CN114008565A (zh) * | 2019-06-24 | 2022-02-01 | 松下知识产权经营株式会社 | 空间设计计划的提出方法和空间设计计划的提出系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120278134A1 (en) * | 2011-03-03 | 2012-11-01 | The Cleveland Clinic Foundation | System and method for operational and behavioral business intelligence |
CN105159090A (zh) * | 2015-09-24 | 2015-12-16 | 盐城工学院 | 基于马尔可夫模型的随机系统的pi跟踪控制器设计方法 |
CN105678591A (zh) * | 2016-02-29 | 2016-06-15 | 北京时代云英科技有限公司 | 一种基于视频分析的商业智能化经营决策支撑系统和方法 |
-
2017
- 2017-10-31 CN CN201711044461.9A patent/CN108573333A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120278134A1 (en) * | 2011-03-03 | 2012-11-01 | The Cleveland Clinic Foundation | System and method for operational and behavioral business intelligence |
CN105159090A (zh) * | 2015-09-24 | 2015-12-16 | 盐城工学院 | 基于马尔可夫模型的随机系统的pi跟踪控制器设计方法 |
CN105678591A (zh) * | 2016-02-29 | 2016-06-15 | 北京时代云英科技有限公司 | 一种基于视频分析的商业智能化经营决策支撑系统和方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214357A (zh) * | 2018-09-30 | 2019-01-15 | 赵学义 | 一种基于人脸识别算法进行数据挖掘的方法以及电子设备 |
CN111126119A (zh) * | 2018-11-01 | 2020-05-08 | 百度在线网络技术(北京)有限公司 | 基于人脸识别的到店用户行为统计方法和装置 |
CN109886727A (zh) * | 2019-01-08 | 2019-06-14 | 秒针信息技术有限公司 | 揽客效率的评估方法及装置 |
CN111681018A (zh) * | 2019-03-11 | 2020-09-18 | 宏碁股份有限公司 | 顾客行为分析方法与顾客行为分析系统 |
CN114008565A (zh) * | 2019-06-24 | 2022-02-01 | 松下知识产权经营株式会社 | 空间设计计划的提出方法和空间设计计划的提出系统 |
CN110348405A (zh) * | 2019-07-16 | 2019-10-18 | 图普科技(广州)有限公司 | 线下交互数据获取方法、装置及电子设备 |
CN110738782A (zh) * | 2019-10-24 | 2020-01-31 | 名创优品(横琴)企业管理有限公司 | 一种收银排队分析方法及系统 |
JP2021093649A (ja) * | 2019-12-11 | 2021-06-17 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
CN112257660A (zh) * | 2020-11-11 | 2021-01-22 | 汇纳科技股份有限公司 | 无效客流的去除方法、系统、设备及计算机可读存储介质 |
CN112257660B (zh) * | 2020-11-11 | 2023-11-17 | 汇纳科技股份有限公司 | 无效客流的去除方法、系统、设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108573333A (zh) | 实体店面的关键绩效指标的评估方法及其系统 | |
US11288495B2 (en) | Object tracking and best shot detection system | |
JP4702877B2 (ja) | 表示装置 | |
US20130325887A1 (en) | Information processing apparatus, information processing method, and program | |
US20090158309A1 (en) | Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization | |
US20190230320A1 (en) | Crowd monitoring device and crowd monitoring system | |
JP2012208854A (ja) | 行動履歴管理システムおよび行動履歴管理方法 | |
JP2006254274A (ja) | 視聴層分析装置、販売戦略支援システム、広告支援システム及びtv装置 | |
KR102097781B1 (ko) | 객체 정보 제공 장치 및 방법 | |
CN110147723B (zh) | 一种无人店中顾客异常行为的处理方法及系统 | |
JP2007034585A (ja) | 映像監視システム | |
CN105095853A (zh) | 图像处理装置及图像处理方法 | |
WO2010053192A1 (ja) | 行動分析装置及び行動分析方法並びに記録媒体 | |
CN109145127A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
US9361705B2 (en) | Methods and systems for measuring group behavior | |
CN108875490A (zh) | 人员流量分析的方法、装置及计算机存储介质 | |
CN110298268A (zh) | 单镜头识别双向客流的方法、装置、存储介质及摄像头 | |
JP6516702B2 (ja) | 人数集計システム、人数集計方法、及び人数集計結果の閲覧方法 | |
CN114037934A (zh) | 一种工服穿戴行为的识别方法、终端设备和存储介质 | |
CN117520662A (zh) | 一种基于定位的景区智能导览方法及系统 | |
Zhu et al. | Artificial intelligence aided crowd analytics in rail transit station | |
US20210385426A1 (en) | A calibration method for a recording device and a method for an automatic setup of a multi-camera system | |
CN111160945A (zh) | 基于视频技术的广告精准投放方法和系统 | |
CN114359817A (zh) | 基于出入口人行识别的人流量测量方法 | |
CN110163158B (zh) | 一种可智能感知的场景人脸识别系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180925 |