CN115223245A - 景区游客行为的检测聚类方法、系统、设备及存储介质 - Google Patents
景区游客行为的检测聚类方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN115223245A CN115223245A CN202210846296.3A CN202210846296A CN115223245A CN 115223245 A CN115223245 A CN 115223245A CN 202210846296 A CN202210846296 A CN 202210846296A CN 115223245 A CN115223245 A CN 115223245A
- Authority
- CN
- China
- Prior art keywords
- behavior
- tourists
- scenic spot
- grid
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000013507 mapping Methods 0.000 claims abstract description 33
- 230000006399 behavior Effects 0.000 claims description 219
- 238000001514 detection method Methods 0.000 claims description 37
- 238000006243 chemical reaction Methods 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 16
- 230000009466 transformation Effects 0.000 claims description 9
- 230000001131 transforming effect Effects 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 5
- 239000000523 sample Substances 0.000 claims description 5
- 230000036544 posture Effects 0.000 description 60
- 238000013145 classification model Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 210000000988 bone and bone Anatomy 0.000 description 6
- 235000021178 picnic Nutrition 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000013139 quantization Methods 0.000 description 4
- 230000003542 behavioural effect Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000005111 flow chemistry technique Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 241000894007 species Species 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 102100030148 Integrator complex subunit 8 Human genes 0.000 description 1
- 101710092891 Integrator complex subunit 8 Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/14—Travel agencies
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Tourism & Hospitality (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了景区游客行为的检测聚类方法、系统、设备及存储介质,该方法包括:采集基于景区的具有地理信息的图片;对图片中游客的行为基于骨骼点之间的位置关系进行行为识别,获得行为标签,建立行为标签与图片的地理信息的映射关系;对景区的电子地图进行网格化,采集每个网格中各种行为标签出现的次数;当网格中行为标签的次数满足该行为标签对应的预设阈值时,则网格获得行为标签并在电子地图生成一个兴趣点;基于游客的历史行为标签与电子地图中的兴趣点进行匹配,向游客的提供满足匹配的兴趣点。本发明能够通过对于景区内游客的行为进行识别,根据游客的行为标签对景区各处增加兴趣点,优化景区地图,也增强景区的数据化引导体验。
Description
技术领域
本发明涉及景区数字化领域,具体地说,涉及景区游客行为的检测聚类方法、系统、设备及存储介质。
背景技术
随着旅游产业的发展,旅游产品的数量也越来越丰富。游客对于景区的游玩体验要求也越来越高。景区会提供一些带有预设设施标记的景区地图来对游客进行引导。但是,对于一些面积过大的国家公园、森林公园等,景区地图可能不够详细,或是没有制作景区地图。而且,普通的景区地图通常指标记了厕所、小卖部等由景区建造的设施的信息,但是对于哪些地方适合野餐、钓鱼、放风筝等游客自行灵活安排的活动(非设施类游客活动)是没有任何介绍和标记的。景区也无法对游客的这些活动需求进行限定区域。
这导致了游客新到大型景区时,无法第一时间知道景区哪些区域存在符合自己兴趣爱好的活动(例如:野餐、放风筝、钓鱼等),哪些区域更适合自己喜欢的活动,或是在景区的哪些区域可以遇到与自己志同道合的游客,只能盲目的游园,浪费了游览时间,也降低了用户体验。
因此,本发明提供了一种景区游客行为的检测聚类方法、系统、设备及存储介质。
发明内容
针对现有技术中的问题,本发明的目的在于提供景区游客行为的检测聚类方法、系统、设备及存储介质,克服了现有技术的困难,能够通过对于景区内游客的行为进行识别,根据游客的行为标签对景区各处增加兴趣点,优化景区地图,也增强景区的数据化引导体验,大大提升了用户的游览体验。
本发明的实施例提供一种景区游客行为的检测聚类方法,包括以下步骤:
采集基于景区的具有地理信息的图片;
对图片中游客的行为基于骨骼点之间的位置关系进行行为识别,获得行为标签,建立所述行为标签与所述图片的地理信息的映射关系;
对景区的电子地图进行网格化,采集每个网格中各种行为标签出现的次数;
当所述网格中所述行为标签的次数满足该行为标签对应的预设阈值时,则所述网格获得所述行为标签;
至少基于所述网格的行为标签,在所述电子地图生成一个兴趣点;
采集游客的当前位置信息,基于所述游客在各景区的历史行为标签与所述电子地图中的兴趣点进行匹配,向所述游客的提供满足匹配的兴趣点。
优选地,所述采集基于景区的具有地理信息的图片,包括:
基于网络采集地理信息位于所述景区范围内的照片;
采集所述景区内监控探头拍摄的照片;以及
采集所述景区内无人机或无人车拍摄的照片。
优选地,所述对图片中游客的行为基于骨骼点之间的位置关系进行行为识别,获得行为标签,建立所述行为标签与所述图片的地理信息的映射关系,包括:
利用MoveNet预训练模型基于所述图片提取人体17个骨骼关键点;
将17个骨骼关键点进行坐标转换,即将其坐标转换到以某一个关键点为原点的坐标系中;
将坐标转换后的17个人体骨骼关键点输入到多层感知机进行训练;
将多层感知机模型进行TFLite模型转换,获得的置信度最高的行为标签;以及
建立所述行为标签与所述图片的地理信息的映射关系。
优选地,所述对景区的电子地图进行网格化,采集每个网格中各种行为标签出现的次数,包括:
根据预设的边长,对景区的电子地图进行网格化,获得每个网格的地理信息;
根据所述行为标签对应的地理信息,将所述行为标签分类到对应的网格;以及
统计每个网格中各种行为标签出现的次数。
优选地,所述当所述网格中所述行为标签的次数满足该行为标签对应的预设阈值时,则所述网格获得所述行为标签,包括:
判断所述网格中每类所述行为标签的次数是否满足所述行为标签对应的预设阈值,若是,则所述网格获得所述行为标签,若否,所述网格未获得所述行为标签。
优选地,所述至少基于所述网格的行为标签,在所述电子地图生成一个兴趣点,包括:
基于所述网格的行为标签建立标签组合;
基于标签组合和预设的映射表,在所述电子地图生成一个兴趣点,所述映射表包括各类标签组合、各类型兴趣点以及兴趣点示意图标的映射关系;
将所述兴趣点对应的兴趣点示意图标添加到所述兴趣点在所述电子地图中的位置。
优选地,所述采集游客的当前位置信息,基于所述游客在各景区的历史行为标签与所述电子地图中的兴趣点进行匹配,向所述游客的提供满足匹配的兴趣点,包括:
采集游客的当前位置信息和所述游客在各景区的历史行为标签;
基于所述游客的发生次数最多的若干历史行为标签与所述电子地图中就近的兴趣点对应的标签组合进行匹配;
根据所述当前位置信息和行为标签命中次数最多的兴趣点生成导航路径。
本发明的实施例还提供一种景区游客行为的检测聚类系统,用于实现上述的景区游客行为的检测聚类方法,所述景区游客行为的检测聚类系统包括:
图片采集模块,采集基于景区的具有地理信息的图片;
映射关系模块,对图片中游客的行为基于骨骼点之间的位置关系进行行为识别,获得行为标签,建立所述行为标签与所述图片的地理信息的映射关系;
网格统计模块,对景区的电子地图进行网格化,采集每个网格中各种行为标签出现的次数;
行为标签模块,当所述网格中所述行为标签的次数满足该行为标签对应的预设阈值时,则所述网格获得所述行为标签;
兴趣点生成模块,至少基于所述网格的行为标签,在所述电子地图生成一个兴趣点;
兴趣点匹配模块,采集游客的当前位置信息,基于所述游客在各景区的历史行为标签与所述电子地图中的兴趣点进行匹配,向所述游客的提供满足匹配的兴趣点。
本发明的实施例还提供一种景区游客行为的检测聚类设备,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述景区游客行为的检测聚类方法的步骤。
本发明的实施例还提供一种计算机可读存储介质,用于存储程序,所述程序被执行时实现上述景区游客行为的检测聚类方法的步骤。
本发明的目的在于提供景区游客行为的检测聚类方法、系统、设备及存储介质,能够通过对于景区内游客的行为进行识别,根据游客的行为标签对景区各处增加兴趣点,优化景区地图,也增强景区的数据化引导体验,大大提升了用户的游览体验。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明的景区游客行为的检测聚类方法的流程图。
图2至5是本发明的景区游客行为的检测聚类方法进行产品检测的框架图。
图6是本发明的景区游客行为的检测聚类系统的模块示意图。
图7是本发明的景区游客行为的检测聚类设备的结构示意图。
图8是本发明一实施例的计算机可读存储介质的结构示意图。
具体实施方式
以下通过特定的具体实例说明本申请的实施方式,本领域技术人员可由本申请所揭露的内容轻易地了解本申请的其他优点与功效。本申请还可以通过另外不同的具体实施方式加以实施或应用系统,本申请中的各项细节也可以根据不同观点与应用系统,在没有背离本申请的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面以附图为参考,针对本申请的实施例进行详细说明,以便本申请所属技术领域的技术人员能够容易地实施。本申请可以以多种不同形态体现,并不限定于此处说明的实施例。
在本申请的表示中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的表示意指结合该实施例或示例表示的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,表示的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本申请中表示的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于表示目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的表示中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
为了明确说明本申请,省略与说明无关的器件,对于通篇说明书中相同或类似的构成要素,赋予了相同的参照符号。
在通篇说明书中,当说某器件与另一器件“连接”时,这不仅包括“直接连接”的情形,也包括在其中间把其它元件置于其间而“间接连接”的情形。另外,当说某种器件“包括”某种构成要素时,只要没有特别相反的记载,则并非将其它构成要素排除在外,而是意味着可以还包括其它构成要素。
当说某器件在另一器件“之上”时,这可以是直接在另一器件之上,但也可以在其之间伴随着其它器件。当对照地说某器件“直接”在另一器件“之上”时,其之间不伴随其它器件。
虽然在一些实例中术语第一、第二等在本文中用来表示各种元件,但是这些元件不应当被这些术语限制。这些术语仅用来将一个元件与另一个元件进行区分。例如,第一接口及第二接口等表示。再者,如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A、B和C”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
此处使用的专业术语只用于言及特定实施例,并非意在限定本申请。此处使用的单数形态,只要语句未明确表示出与之相反的意义,那么还包括复数形态。在说明书中使用的“包括”的意义是把特定特性、区域、整数、步骤、作业、要素及/或成份具体化,并非排除其它特性、区域、整数、步骤、作业、要素及/或成份的存在或附加。
虽然未不同地定义,但包括此处使用的技术术语及科学术语,所有术语均具有与本申请所属技术领域的技术人员一般理解的意义相同的意义。普通使用的字典中定义的术语追加解释为具有与相关技术文献和当前提示的内容相符的意义,只要未进行定义,不得过度解释为理想的或非常公式性的意义。
图1是本发明的景区游客行为的检测聚类方法的流程图。如图1所示,本发明的实施例提供一种景区游客行为的检测聚类方法,包括以下步骤:
S110、采集基于景区的具有地理信息的图片。
S120、对图片中游客的行为基于骨骼点之间的位置关系进行行为识别,获得行为标签,建立行为标签与图片的地理信息的映射关系。
S130、对景区的电子地图进行网格化,采集每个网格中各种行为标签出现的次数。
S140、当网格中行为标签的次数满足该行为标签对应的预设阈值时,则网格获得行为标签。
S150、至少基于网格的行为标签,在电子地图生成一个兴趣点。
S160、采集游客的当前位置信息,基于游客在各景区的历史行为标签与电子地图中的兴趣点进行匹配,向游客的提供满足匹配的兴趣点。
在一个优选实施例中,步骤S110中包括:
S111、基于网络采集地理信息位于景区范围内的照片。照片包括了地理信息和拍摄时间信息。
S112、采集景区内监控探头拍摄的照片。以及
S113、采集景区内无人机或无人车拍摄的照片,从而尽可能多地收集景区范围内的照片,但不以此为限。
在一个优选实施例中,步骤S120中包括:
S121、利用MoveNet预训练模型基于图片提取人体17个骨骼关键点。
S122、将17个骨骼关键点进行坐标转换,即将其坐标转换到以某一个关键点为原点的坐标系中。
S123、将坐标转换后的17个人体骨骼关键点输入到多层感知机进行训练。
S124、将多层感知机模型进行TFLite模型转换,获得的置信度最高的行为标签。以及
S125、建立行为标签与图片的地理信息的映射关系,但不以此为限。
在一个优选实施例中,步骤S130中包括:
S131、根据预设的边长,对景区的电子地图进行网格化,获得每个网格的地理信息。
S132、根据行为标签对应的地理信息,将行为标签分类到对应的网格。以及
S133、统计每个网格中各种行为标签出现的次数,从而获得游客最喜欢在网格中进行的行为,但不以此为限。
在一个优选实施例中,步骤S140中包括:
S141、判断网格中每类行为标签的次数是否满足行为标签对应的预设阈值,若是,则执行步骤S142,若否,则执行步骤S143。
S142、网格获得行为标签。以及
S143、网格未获得行为标签,从而对于游客经常在某个网格进行的行为进行标签化,让网格的信息更能便于后续的数据处理,时但不以此为限。
在一个优选实施例中,步骤S150中包括:
S151、基于网格的行为标签建立标签组合。
S152、基于标签组合和预设的映射表,在电子地图生成一个兴趣点,映射表包括各类标签组合、各类型兴趣点以及兴趣点示意图标的映射关系。
S153、将兴趣点对应的兴趣点示意图标添加到兴趣点在电子地图中的位置,从而方便用户能够更明确地了解景区内各区域的游乐体验的类型,但不以此为限。
在一个优选实施例中,步骤S160中包括:
S161、采集游客的当前位置信息和游客在各景区的历史行为标签。
S162、基于游客的发生次数最多的若干历史行为标签与电子地图中就近的兴趣点对应的标签组合进行匹配,可以通过游客的历史行为标签的统计获得的用户最喜欢的前几项行为,从而便于向游客推送相关的兴趣点。
S163、根据当前位置信息和行为标签命中次数最多的兴趣点生成导航路径,但不以此为限。
通过本发明可以让用户在没有景区地图的大型景区中,明确周围兴趣点的情况,基于用户的兴趣爱好推动相关的游览路径,大大增强了景区的数据化引导体验。
图2至5是本发明的景区游客行为的检测聚类方法进行产品检测的框架图。如图2至5,本发明的具体实施过程如下:
首先,基于网络采集地理信息位于景区范围(未开发景区或是大型国家公园)内的照片。照片包括了地理信息和拍摄时间信息。采集景区内监控探头拍摄的照片。采集景区内无人机或无人车拍摄的照片,从而尽可能多地收集景区范围内的照片。
参见图2,利用MoveNet预训练模型基于图片提取人体17个骨骼关键点。将17个骨骼关键点进行坐标转换,即将其坐标转换到以某一个关键点为原点的坐标系中。将坐标转换后的17个人体骨骼关键点输入到多层感知机进行训练。将多层感知机模型进行TFLite模型转换,获得的置信度最高的行为标签。建立行为标签与图片的地理信息的映射关系,但不以此为限。其中识别行为标签的过程可以使用谷歌SOTA姿态检测模型,但不以此为限。其中,MoveNet:是一种速度快、准确率高的姿态检测模型,可检测人体的17个关键点,能够以50+fps的速度在笔记本电脑和手机上运行。TFLite是为了将深度学习模型部署在移动端和嵌入式设备的工具包,可以把训练好的TF模型通过转化、部署和优化三个步骤,达到提升运算速度,减少内存、显存占用的效果。
本发明中的时候人体姿态识别属于计算机视觉中的一种,其目的是从包含人的图像或视频中通过检测人体关键点并对人体姿态进行识别以更好的实现人机交互。人体姿态识别有着极其广泛的应用领域,在医疗复健、运动与舞蹈的姿势指导、智能安防等方面等都有广泛的应用前景。为了其适用于移动与嵌入式设备,本发明中的实时人体姿态识别方法。该人体姿态识别方法主要包括人体姿态检测模型与人体姿态分类模型。其主要流程为首先利用人体姿态检测模型MoveNet检测出人体17个骨骼关键点。然后对17个骨骼关键点进行处理,即将其坐标转换到以某一个关键点为原点的坐标系中。最后,将处理后的十七个关键点的坐标输入到人体姿态分类模型进行分类。其中,人体姿态分类模型主要由多层感知机构成。为了进一步提升模型的推理速度实现实时性,将分类模型进行TFLite模型转换。
本发明涉及人体姿态检测、人体姿态分类以及TFLite领域。其中,人体姿态检测主要分为传统姿态检测与基于深度学习的姿态检测。其中,基于深度学习的人体姿态检测方法主要分为自上而下与自下而上两种。其中,自上而下首先检测出人体,再具体检测每个关节的位置;而自下而上方法主要是先检测出人体关节点,再根据检测出来的关节点连成人体骨架。MoveNet模型属于自下而上方法,其主要特点是速度快、准确率高。而人体姿态分类主要是利用多层感知机模型,对输入的17个骨骼关键点进行姿态分类。为了满足模型的实时性,将多层感知机模型进行TFLite模型转换,在转换过程中进行int8量化,在满足分类性能的同时极大提升模型推理速度。
人体姿态识别在医疗复健、运动与舞蹈姿势指导等方面都具有广泛的应用。为了将该算法应用于移动和嵌入式设备中,本发明中的基于骨骼点检测与多层感知机的实时姿态识别方法。
目前,人体姿态检测主要包括Openpose、PoseNet等经典算法模型。其中,Openpose主要利用VGG19提取特征,其推理速度较慢难以实现实时性。PoseNet模型以MobileNet V1为基础,虽然其推理速度相对于Openpose有所提升,但其检测性能较差。而MoveNet是一种速度快、准确率高的姿态检测模型。
人体姿态分类方法主要是利用多层感知机对17个骨骼关键点进行分类。最后,为了实现模型的实时性,对多层感知机模型进行TFLite模型转换,在转换过程中进行int8量化,在保证模型识别准确率的同时进一步提升了模型的推理速度。
本发明的目的是发明一种基于骨骼点检测与多层感知机的人体姿态识别模型,使其不仅可以准确检测人体骨骼关键点及识别姿态分类,同时具有实时性以适用于移动或者嵌入式设备,以满足人体姿态识别在医疗复健以及运动姿势指导等方面的需求。
本发明使用的一种实时的姿态识别方法,不仅可以准确地进行骨骼关键点检测及姿态分类,还具有实时性以适用于移动或嵌入式设备中。该技术方案以如下方式实现:
(1)利用MoveNet预训练模型提取人体17个骨骼关键点;
(2)将17个骨骼关键点进行坐标转换,即将其坐标转换到以某一个关键点为;
原点的坐标系中;
(3)将坐标转换后的17个人体骨骼关键点输入到多层感知机进行训练;
(4)将多层感知机模型进行TFLite模型转换,在转换过程中进行Int8量化,在保证识别性能的同时,进一步提升推理速度。
本发明的一种基于人体骨骼点检测与多层感知机的实时人体姿态识别方法,以正确识别人体姿势。本发明在利用人体姿态检测算法得到人体17个骨骼关键点坐标后,并未直接将坐标输入人体姿态分类模型,而是将骨骼关键点进行坐标转换使得17个骨骼关键点坐标在以某一个骨骼关键点为原点的坐标系中。训练完人体姿态分类模型后,其推理速度较慢。对其进行TFLite转换以进一步提升模型推理速度。
本发明中的基于人体骨骼点检测和多层感知机的实时人体姿态识别方法。MoveNet是一种速度快,准确率高的人体姿态检测算法,可以较准确地识别人体的17个骨骼关键点。将17个骨骼关键点的坐标转换到以某一骨骼关键点为原点的同一坐标系后输入到人体姿态分类网络可以进一步提升分类效果。最后通过对人体姿态分类模型进行TFLite模型转换,在保证识别性能的同时进一步提升模型的推理速度。所以本发明提出了一种准确率高且实时的人体姿态识别方法,可以适用于移动或嵌入式设备。
本发明的基于人体骨骼点检测和多层感知机实现一种准确率高且推理速度快的人体姿态识别算法,以适用于移动或嵌入式设备中。该方法从人体姿态检测与人体姿态分类两方面考虑,即两个模型均需要满足推理速度快,准确率高。由于Movenet是一种速度快,准确率高的模型,所以针对人体姿态检测部分,利用Movenet模型检测出人体17个骨骼关键点。针对人体姿态分类,首先将人体姿态检测模型输出的17个关键点进行坐标转换,再输入人体姿态分类模型即多层感知机,以进一步提升模型的准确率。最后,对人体姿态分类模型进行TFLite转换以进一步提升模型推理速度。
本发明的实施方式中使用的实时人体姿态识别的方法,其主要步骤如下:
1、首先利用MoveNet.TFLite模型进行人体姿态检测,其主要结构分为
Backbone、Header、损失函数三部分:
Backbone部分主要是利用MobileNet v2+FPN提取特征;
将Backbone提取的特征图输入Header,经过各自的卷积,输出各自维
度的特征。共有四个Header,分别为Center、KeypointRegression、KeypointHeatmap以及Local Offset。其整体结构如图3所示:
其中,Center:[N,H,W,1],1为人体中心关键点。提取中心关键点主要有两种方式,第一种为所有人体骨骼关键点的平均;第二种为所有关键点最大外接矩形的中心点。
KeypointHeatmap:[N,H,W,K],K为人体骨骼关键点数量。
KeypointRegresssion:[N,H,W,2K],K为人体骨骼关键点数量,坐标用(x,y)表示,所以有2K个数据。其中,(x,y)代表人体骨骼关键点对于中心点的偏移值。
LocalOffsets:[N,H,W,2K],其对应K个人体关键点的Offset坐标,因为模型在降采样过程中特征图会存在量化误差。
损失函数:KeypointHeadmap和Center采用加MSE,KeypointRegression
和LocalOffset采用L1 Loss。
2、将17个人体骨骼关键点坐标进行转换,使得17个关键点在以第12个关键点(左胯)为原点的坐标系中;
3、利用多层感知机对经过坐标转换的17个骨骼关键点进行训练。利用多层感知机对人体骨骼点进行分类的架构如图4所示。
由图4可知,由于输入为人体骨骼关键点的坐标,即17个(x,y)坐标,则多层感知机的输入有34个,输出为姿态分类的准确率。中间有9个隐藏层,其九个隐藏层的神经单元数分别为:512,256,128,128,64,48,36,12,4。每个输入神经元与连接的下一层神经元都有一个权重值w和偏置值b,输入域输出之间的关系为:
相邻两层之间都会有ReLU函数对上一层的结果进行非线性变换。多层感知机网络在进行训练时,会用反向传播对隐藏层的参数进行修正。在反向传播的过程中,为了使模型训练速度加快并提高准确率,将使用Adam的方法。
4、最后,将训练得到的分类模型进行TFLite转换,以进一步提升模型的推理速度。
本发明可以针对人体姿态识别任务进行实验。首先利用自建数据集对MoveNet.TFLite模型进行测试。该数据集主要分为四个动作,分别为站立、深蹲、弓步及抬手。每个动作的数据集约为2000张图片,且每个动作都对两个或者三个人进行图片采集。测试结果如下图所示:
对于人体姿态分类网络,使用自建数据集进行训练和测试。其中训练集与测试集的比例为8:2。首先将图片输入人体姿态检测模型MoveNet网络,得到的输出为17个骨骼关键点的(x,y)坐标。对坐标进行预处理,即将骨骼点的坐标转换为以第十二个骨骼点(即左胯)为原点的坐标系中。再将经过坐标转换的坐标数据作为多层感知机的输入。将batchsize设为8,并设置人体姿态分类网络的学习率为2×10-4,设置迭代次数为60,得到的分类准确率为99.87%。
其中,人体姿态检测模型与人体姿态分类模型的推理时间如下所示:
模型 | 人体姿态检测 | 人体姿态分类 |
时间(ms) | 22.23 | 0.1ms |
表1人体姿态检测与人体姿态分类模型推理时间
由以上结果可知,本发明提出的人体姿态识别模型取得了较高的识别精度与较快的推理速度,可以适用于移动或嵌入式设备上。
在获得了照片中的行为标签(例如:钓鱼、放风筝、野餐)后,根据预设的边长,对景区的电子地图进行网格化,获得每个网格的地理信息。根据行为标签对应的地理信息,将行为标签分类到对应的网格。统计每个网格中各种行为标签出现的次数,从而获得游客最喜欢在网格中进行的行为,但不以此为限。
判断网格中每类行为标签的次数是否满足行为标签对应的预设阈值,若是,则网格获得行为标签,若否,则网格未获得行为标签,从而对于游客经常在某个网格进行的行为进行标签化,让网格的信息更能便于后续的数据处理,时但不以此为限。
然后,参见图5,基于网格的行为标签建立标签组合。基于标签组合和预设的映射表,在电子地图生成一个兴趣点,映射表包括各类标签组合、各类型兴趣点以及兴趣点示意图标的映射关系。本实施例中,在电子地图上增添了三个兴趣点1、2、3,其中,兴趣点1具有放风筝的行为标签,通过相关图片的行为标签可知会有较多游客在此处放风筝,显然也表明兴趣点1是一个适合放风筝的场所。兴趣点2具有钓鱼的行为标签,通过相关图片的行为标签可知会有较多游客在此处钓鱼,显然也表明兴趣点2是一个适合钓鱼的场所。兴趣点3具有野餐的行为标签,通过相关图片的行为标签可知会有较多游客在此处野餐,显然也表明兴趣点3是一个适合野餐的场所。将兴趣点对应的兴趣点示意图标添加到兴趣点在电子地图中的位置,从而方便用户能够更明确地了解景区内各区域的游乐体验的类型。
最后,采集游客的当前位置信息(图5中用户的当前位置4)和游客在各景区的历史行为标签。基于游客的发生次数最多的若干历史行为标签与电子地图中就近的兴趣点对应的标签组合进行匹配,可以通过游客的历史行为标签的统计获得的用户最喜欢的前几项行为,从而便于向游客推送相关的兴趣点。根据当前位置信息和行为标签命中次数最多的兴趣点生成导航路径L,便于游客前往兴趣点3进行钓鱼,也遇到更多志同道合的其他游客,增强游览体验。使得用户在没有景区地图的情况下,也能很便捷地获得自己感兴趣的活动所在的区域。
图6是本发明的景区游客行为的检测聚类系统的模块示意图。如图6所示,本发明的实施例还提供一种景区游客行为的检测聚类系统,用于实现上述的景区游客行为的检测聚类方法,景区游客行为的检测聚类系统包括:
图片采集模块51,采集基于景区的具有地理信息的图片。
映射关系模块52,对图片中游客的行为基于骨骼点之间的位置关系进行行为识别,获得行为标签,建立行为标签与图片的地理信息的映射关系。
网格统计模块53,对景区的电子地图进行网格化,采集每个网格中各种行为标签出现的次数。
行为标签模块54,当网格中行为标签的次数满足该行为标签对应的预设阈值时,则网格获得行为标签。
兴趣点生成模块55,至少基于网格的行为标签,在电子地图生成一个兴趣点。
兴趣点匹配模块56,采集游客的当前位置信息,基于游客在各景区的历史行为标签与电子地图中的兴趣点进行匹配,向游客的提供满足匹配的兴趣点。
在一个优选实施例中,图片采集模块51被配置为基于网络采集地理信息位于景区范围内的照片。采集景区内监控探头拍摄的照片。采集景区内无人机或无人车拍摄的照片。
在一个优选实施例中,映射关系模块52被配置为利用MoveNet预训练模型基于图片提取人体17个骨骼关键点。将17个骨骼关键点进行坐标转换,即将其坐标转换到以某一个关键点为原点的坐标系中。将坐标转换后的17个人体骨骼关键点输入到多层感知机进行训练。将多层感知机模型进行TFLite模型转换,获得的置信度最高的行为标签。建立行为标签与图片的地理信息的映射关系。
在一个优选实施例中,网格统计模块53被配置为根据预设的边长,对景区的电子地图进行网格化,获得每个网格的地理信息。根据行为标签对应的地理信息,将行为标签分类到对应的网格。统计每个网格中各种行为标签出现的次数。
在一个优选实施例中,行为标签模块54被配置为判断网格中每类行为标签的次数是否满足行为标签对应的预设阈值,若是,则网格获得行为标签,若否,网格未获得行为标签。
在一个优选实施例中,兴趣点生成模块55被配置为基于网格的行为标签建立标签组合。基于标签组合和预设的映射表,在电子地图生成一个兴趣点,映射表包括各类标签组合、各类型兴趣点以及兴趣点示意图标的映射关系。将兴趣点对应的兴趣点示意图标添加到兴趣点在电子地图中的位置。
在一个优选实施例中,兴趣点匹配模块56被配置为采集游客的当前位置信息和游客在各景区的历史行为标签。基于游客的发生次数最多的若干历史行为标签与电子地图中就近的兴趣点对应的标签组合进行匹配。根据当前位置信息和行为标签命中次数最多的兴趣点生成导航路径。
本发明的目的在于提供景区游客行为的检测聚类系统能够通过对于景区内游客的行为进行识别,根据游客的行为标签对景区各处增加兴趣点,优化景区地图,也增强景区的数据化引导体验,大大提升了用户的游览体验。
本发明实施例还提供一种景区游客行为的检测聚类设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的景区游客行为的检测聚类方法的步骤。
如上所示,该实施例本发明的景区游客行为的检测聚类系统能够通过对于景区内游客的行为进行识别,根据游客的行为标签对景区各处增加兴趣点,优化景区地图,也增强景区的数据化引导体验,大大提升了用户的游览体验。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图7是本发明的景区游客行为的检测聚类设备的结构示意图。下面参照图7来描述根据本发明的这种实施方式的电子设备600。图7显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任一总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的景区游客行为的检测聚类方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例本发明的景区游客行为的检测聚类系统能够通过对于景区内游客的行为进行识别,根据游客的行为标签对景区各处增加兴趣点,优化景区地图,也增强景区的数据化引导体验,大大提升了用户的游览体验。
图8是本发明的计算机可读存储介质的结构示意图。参考图8所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任一组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任一以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任一合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任一合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任一合适的组合。
可以以一种或多种程序设计语言的任一组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任一种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上,本发明的目的在于提供景区游客行为的检测聚类方法、系统、设备及存储介质,能够通过对于景区内游客的行为进行识别,根据游客的行为标签对景区各处增加兴趣点,优化景区地图,也增强景区的数据化引导体验,大大提升了用户的游览体验。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种景区游客行为的检测聚类方法,其特征在于,包括以下步骤:
采集基于景区的具有地理信息的图片;
对图片中游客的行为基于骨骼点之间的位置关系进行行为识别,获得行为标签,建立所述行为标签与所述图片的地理信息的映射关系;
对景区的电子地图进行网格化,采集每个网格中各种行为标签出现的次数;
当所述网格中所述行为标签的次数满足该行为标签对应的预设阈值时,则所述网格获得所述行为标签;
至少基于所述网格的行为标签,在所述电子地图生成一个兴趣点;
采集游客的当前位置信息,基于所述游客在各景区的历史行为标签与所述电子地图中的兴趣点进行匹配,向所述游客的提供满足匹配的兴趣点。
2.如权利要求1所述的景区游客行为的检测聚类方法,其特征在于,所述采集基于景区的具有地理信息的图片,包括:
基于网络采集地理信息位于所述景区范围内的照片;
采集所述景区内监控探头拍摄的照片;以及
采集所述景区内无人机或无人车拍摄的照片。
3.如权利要求1所述的景区游客行为的检测聚类方法,其特征在于,所述对图片中游客的行为基于骨骼点之间的位置关系进行行为识别,获得行为标签,建立所述行为标签与所述图片的地理信息的映射关系,包括:
利用MoveNet预训练模型基于所述图片提取人体17个骨骼关键点;
将17个骨骼关键点进行坐标转换,即将其坐标转换到以某一个关键点为原点的坐标系中;
将坐标转换后的17个人体骨骼关键点输入到多层感知机进行训练;
将多层感知机模型进行TFLite模型转换,获得的置信度最高的行为标签;以及
建立所述行为标签与所述图片的地理信息的映射关系。
4.如权利要求1所述的景区游客行为的检测聚类方法,其特征在于,所述对景区的电子地图进行网格化,采集每个网格中各种行为标签出现的次数,包括:
根据预设的边长,对景区的电子地图进行网格化,获得每个网格的地理信息;
根据所述行为标签对应的地理信息,将所述行为标签分类到对应的网格;以及
统计每个网格中各种行为标签出现的次数。
5.如权利要求1所述的景区游客行为的检测聚类方法,其特征在于,所述当所述网格中所述行为标签的次数满足该行为标签对应的预设阈值时,则所述网格获得所述行为标签,包括:
判断所述网格中每类所述行为标签的次数是否满足所述行为标签对应的预设阈值,若是,则所述网格获得所述行为标签,若否,所述网格未获得所述行为标签。
6.如权利要求1所述的景区游客行为的检测聚类方法,其特征在于,所述至少基于所述网格的行为标签,在所述电子地图生成一个兴趣点,包括:
基于所述网格的行为标签建立标签组合;
基于标签组合和预设的映射表,在所述电子地图生成一个兴趣点,所述映射表包括各类标签组合、各类型兴趣点以及兴趣点示意图标的映射关系;
将所述兴趣点对应的兴趣点示意图标添加到所述兴趣点在所述电子地图中的位置。
7.如权利要求1所述的景区游客行为的检测聚类方法,其特征在于,所述采集游客的当前位置信息,基于所述游客在各景区的历史行为标签与所述电子地图中的兴趣点进行匹配,向所述游客的提供满足匹配的兴趣点,包括:
采集游客的当前位置信息和所述游客在各景区的历史行为标签;
基于所述游客的发生次数最多的若干历史行为标签与所述电子地图中就近的兴趣点对应的标签组合进行匹配;
根据所述当前位置信息和行为标签命中次数最多的兴趣点生成导航路径。
8.一种景区游客行为的检测聚类系统,用于实现权利要求1所述的景区游客行为的检测聚类方法,其特征在于,包括:
图片采集模块,采集基于景区的具有地理信息的图片;
映射关系模块,对图片中游客的行为基于骨骼点之间的位置关系进行行为识别,获得行为标签,建立所述行为标签与所述图片的地理信息的映射关系;
网格统计模块,对景区的电子地图进行网格化,采集每个网格中各种行为标签出现的次数;
行为标签模块,当所述网格中所述行为标签的次数满足该行为标签对应的预设阈值时,则所述网格获得所述行为标签;
兴趣点生成模块,至少基于所述网格的行为标签,在所述电子地图生成一个兴趣点;
兴趣点匹配模块,采集游客的当前位置信息,基于所述游客在各景区的历史行为标签与所述电子地图中的兴趣点进行匹配,向所述游客的提供满足匹配的兴趣点。
9.一种景区游客行为的检测聚类设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至7任意一项所述景区游客行为的检测聚类方法的步骤。
10.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被处理器执行时实现权利要求1至7任意一项所述景区游客行为的检测聚类方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210846296.3A CN115223245A (zh) | 2022-07-19 | 2022-07-19 | 景区游客行为的检测聚类方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210846296.3A CN115223245A (zh) | 2022-07-19 | 2022-07-19 | 景区游客行为的检测聚类方法、系统、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115223245A true CN115223245A (zh) | 2022-10-21 |
Family
ID=83611838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210846296.3A Pending CN115223245A (zh) | 2022-07-19 | 2022-07-19 | 景区游客行为的检测聚类方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115223245A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117633372A (zh) * | 2024-01-25 | 2024-03-01 | 四川轻化工大学 | 基于物联网的景区游玩路径优化方法、系统、终端及介质 |
-
2022
- 2022-07-19 CN CN202210846296.3A patent/CN115223245A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117633372A (zh) * | 2024-01-25 | 2024-03-01 | 四川轻化工大学 | 基于物联网的景区游玩路径优化方法、系统、终端及介质 |
CN117633372B (zh) * | 2024-01-25 | 2024-04-09 | 四川轻化工大学 | 基于物联网的景区游玩路径优化方法、系统、终端及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7185039B2 (ja) | 画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラム | |
CN110096933B (zh) | 目标检测的方法、装置及系统 | |
CN110555481B (zh) | 一种人像风格识别方法、装置和计算机可读存储介质 | |
CN110929774B (zh) | 图像中目标物的分类方法、模型训练方法和装置 | |
CN102576259B (zh) | 手位置检测方法 | |
CN112651292A (zh) | 基于视频的人体动作识别方法、装置、介质及电子设备 | |
CN112200041B (zh) | 视频动作识别方法、装置、存储介质与电子设备 | |
CN111782840A (zh) | 图像问答方法、装置、计算机设备和介质 | |
CN112419326B (zh) | 图像分割数据处理方法、装置、设备及存储介质 | |
CN101305368A (zh) | 语义可视搜索引擎 | |
WO2021012493A1 (zh) | 短视频关键词提取方法、装置及存储介质 | |
CN113033507B (zh) | 场景识别方法、装置、计算机设备和存储介质 | |
WO2024083121A1 (zh) | 一种数据处理方法及其装置 | |
CN115512005A (zh) | 一种数据处理方法及其装置 | |
Guo et al. | Using multi-scale and hierarchical deep convolutional features for 3D semantic classification of TLS point clouds | |
Werner et al. | DeepMoVIPS: Visual indoor positioning using transfer learning | |
CN115131604A (zh) | 一种多标签图像分类方法、装置、电子设备及存储介质 | |
CN117854156B (zh) | 一种特征提取模型的训练方法和相关装置 | |
CN115223245A (zh) | 景区游客行为的检测聚类方法、系统、设备及存储介质 | |
CN117877113A (zh) | 一种基于时空骨骼拓扑的教学手势识别方法及系统 | |
Zhao et al. | Learning representative features for robot topological localization | |
CN116051917B (zh) | 一种训练图像量化模型的方法、检索图像的方法及装置 | |
Li | Badminton motion capture with visual image detection of picking robotics | |
CN115937662A (zh) | 智能家居系统控制方法、装置、服务器及存储介质 | |
Hu et al. | Intelligent digital image firewall system for filtering privacy or sensitive images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |