CN111401328A - 数据采集方法、装置、终端及存储介质 - Google Patents

数据采集方法、装置、终端及存储介质 Download PDF

Info

Publication number
CN111401328A
CN111401328A CN202010325562.9A CN202010325562A CN111401328A CN 111401328 A CN111401328 A CN 111401328A CN 202010325562 A CN202010325562 A CN 202010325562A CN 111401328 A CN111401328 A CN 111401328A
Authority
CN
China
Prior art keywords
base station
terminal
code
subway
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010325562.9A
Other languages
English (en)
Other versions
CN111401328B (zh
Inventor
蒋燚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jinsheng Communication Technology Co ltd
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Shanghai Jinsheng Communication Technology Co ltd
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jinsheng Communication Technology Co ltd, Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Shanghai Jinsheng Communication Technology Co ltd
Priority to CN202010325562.9A priority Critical patent/CN111401328B/zh
Publication of CN111401328A publication Critical patent/CN111401328A/zh
Application granted granted Critical
Publication of CN111401328B publication Critical patent/CN111401328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/416Extracting the logical structure, e.g. chapters, sections or page numbers; Identifying elements of the document, e.g. authors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/32Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
    • G06Q20/327Short range or proximity payments by means of M-devices
    • G06Q20/3274Short range or proximity payments by means of M-devices using a pictured code, e.g. barcode or QR-code, being displayed on the M-device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Accounting & Taxation (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本申请实施例公开了一种数据采集方法、装置、终端及存储介质,属于人工智能领域。该方法包括:响应于识别出终端处于刷码进站状态,从刷码界面获取当前所处站点的第一站点信息,刷码进站状态指通过显示支付码进行进站支付的状态;响应于识别出处于地铁乘坐状态,获取当前注册基站的第一基站信息;根据第一站点信息和第一基站信息生成第一采集数据包;向服务器上传第一采集数据包,服务器用于根据各个终端上传的采集数据包生成站点与基站之间的对应关系。采用本申请实施例提供的方案,开发人员无需对各个站点进行实地测量,提高了数据采集效率,且海量数据有助于提高确定出的站点与基站之间对应关系的准确性。

Description

数据采集方法、装置、终端及存储介质
技术领域
本申请实施例涉及人工智能领域,特别涉及一种数据采集方法、装置、终端及存储介质。
背景技术
地铁作为一种快速、大运量的轨道交通,逐渐成为人们日常出行的首选。
为了在用户乘坐地铁过程中,提供到站或换乘提醒服务,越来越多的终端具备识别地铁运行过程中所处站点的功能。相关技术中,终端基于当前注册基站确定当前所处站点,而开发人员通常采用线下实地测量的方式,预先构建基站与站点之间的对应关系。
发明内容
本申请实施例提供了一种数据采集方法、装置、终端及存储介质。所述技术方案如下:
一方面,本申请实施例提供了一种数据采集方法,所述方法包括:
响应于识别出终端处于刷码进站状态,从刷码界面获取当前所处站点的第一站点信息,所述刷码进站状态指通过显示支付码进行进站支付的状态;
响应于识别出处于地铁乘坐状态,获取当前注册基站的第一基站信息;
根据所述第一站点信息和所述第一基站信息生成第一采集数据包;
向服务器上传所述第一采集数据包,所述服务器用于根据各个终端上传的所述采集数据包生成站点与基站之间的对应关系。
另一方面,本申请实施例提供了一种数据采集装置,所述装置包括:
第一获取模块,用于响应于识别出终端处于刷码进站状态,从刷码界面获取当前所处站点的第一站点信息,所述刷码进站状态指通过显示支付码进行进站支付的状态;
第二获取模块,用于响应于识别出处于地铁乘坐状态,获取当前注册基站的第一基站信息;
生成模块,用于根据所述第一站点信息和所述第一基站信息生成第一采集数据包;
上传模块,用于向服务器上传所述第一采集数据包,所述服务器用于根据各个终端上传的所述采集数据包生成站点与基站之间的对应关系。
另一方面,本申请实施例提供了一种终端,所述终端包括处理器和存储器;所述存储器存储有至少一条指令,所述至少一条指令用于被所述处理器执行以实现如上述方面所述的数据采集方法。
另一方面,提供了一种计算机可读存储介质,所述存储介质存储有至少一条指令,所述至少一条指令用于被处理器执行以实现如上述方面所述的数据采集方法。
另一方面,还提供了一种计算机程序产品,该计算机程序产品存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如上述方面所述的数据采集方法。
本申请实施例中,当识别出终端处于刷码进站状态时,通过从刷码界面中获取当前所处站点的站点信息,并在识别出处于地铁乘坐状态时,进一步获取当前注册基站的基站信息,从而向服务器上报包含站点信息以及基站信息的采集数据包,以便服务器根据大量终端上传的采集数据包,确定出站点与基站之间的对应关系;采用本申请实施例提供的方法,借助海量终端用户乘坐地铁时的刷码进站行为进行数据采集,并基于海量数据确定出站点与站点处基站之间的对应关系,无需开发人员对各个站点进行实地测量,提高了数据采集效率,且海量数据有助于提高确定出的站点与基站之间对应关系的准确性。
附图说明
图1示出了本申请一个示例性实施例提供的实施环境的示意图;
图2示出了本申请一个示例性实施例提供的数据采集方法的流程图;
图3示出了本申请另一个示例性实施例提供的数据采集方法的流程图;
图4是图3所示数据采集方法实施过程的实施示意图;
图5是本申请一个示例性实施例提供的第二采集数据包生成以及上传过程的流程图;
图6是本申请一个示例性实施例提供的第三采集数据包生成以及上传过程的流程图;
图7示出了本申请一个实施例提供的数据采集装置的结构框图;
图8示出了本申请一个示例性实施例提供的终端的结构方框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
请参考图1,其示出了本申请一个示例性实施例提供的实施环境的示意图,该实施环境中包括至少一个终端110和服务器120。
终端110是具有刷码支付功能的电子设备,其可以是智能手机、平板电脑、可穿戴式设备等等。其中,该刷码支付功能可以通过应用程序、应用程序中的小程序或者快应用实现,本申请实施例并不对此进行限定。
本申请实施例中,终端110还具备基站搜索以及注册功能,通过该功能,终端110能够注册到搜索到的基站,进而与基站之间进行数据通信。其中,该基站可以为3G基站、4G基站或者5G基站等等,本申请实施例对此不作限定。
在一种可能的实施方式中,终端110还设置有麦克风以及传感器,通过麦克风采集环境音,并通过传感器采集传感器数据,终端110可以识别出当前所处的状态。可选的,终端基于环境音和传感器数据识别出处于地铁乘坐状态。
服务器120是一台服务器、若干台服务器组成的服务器集群或云计算中心。本申请实施例中,服务器120为终端110后台服务器,用于基于终端110上传的数据,确定出各个地铁站点与基站之间的对应关系,并将该对应关系下发至各个终端110,以便终端110根据该对应关系,在处于地铁模式时根据当前注册基站的基站信息,确定地铁当前行进至的站点,进而实现到站提醒功能。
在一种可能的应用场景下,如图1所述,用户使用终端110刷码进站时,终端110从刷码界面111获取当前所处站点的站点信息;当识别出处于地铁乘坐状态时,终端110获取当前注册基站112的基站信息,从而将站点信息和基站信息打包生成采集数据包,并上传至服务器120。服务器120对大量终端110上传的采集数据包进行分析,确定出站点与基站之间的对应关系。
请参考图2,其示出了本申请一个示例性实施例提供的数据采集方法的流程图。本实施例以该方法由终端执行为例进行说明,该过程包括如下步骤:
步骤201,响应于识别出终端处于刷码进站状态,从刷码界面获取当前所处站点的第一站点信息,刷码进站状态指通过显示支付码进行进站支付的状态。
可选的,该刷码界面为刷码进站成功时刷码应用程序、刷码小程序或刷码快应用的用户界面。
针对第一站点信息的获取方式,在一种可能的实施方式中,当检测到刷码应用程序处于前台运行状态时,终端系统通过预设埋点获取刷码界面中包含的文字内容,从文字内容中提取站点信息。
在其他可能的实施方式中,终端系统通过图像识别方式识别刷码界面中的站点信息,或者从获取应用程序的通知消息(通知刷码进站成功的消息)中提取站点信息,本实施例对此不作限定。
步骤202,响应于识别出处于地铁乘坐状态,获取当前注册基站的第一基站信息。
由于刷码进站通常位于地铁站的进站口位置,而当处于进站口位置时,终端通常未注册到地铁站内设置的站内基站。因此为了提高后续上报的基站信息的准确性(即上报的基站信息为站内基站的基站信息),在一种可能的实施方式中,终端识别当前是否处于地铁乘坐状态,并在识别出处于地铁乘坐状态时,获取当前注册基站的第一基站信息,其中,地铁乘坐状态指用户位于行驶中地铁的状态。
可选的,基站信息包括基站标识(Cell-ID)。
步骤203,根据第一站点信息和第一基站信息生成第一采集数据包。
在一种可能的实施方式中,为了避免在当前站点未识别出地铁乘坐状态,而在下一站点识别出地铁乘坐状态,导致将下一站点处的基站信息与当前站点的站点信息错误关联,终端获取第一站点信息的获取时刻与第一基站信息的获取时刻之间,注册基站的变化次数,若变化次数小于次数阈值(比如2次),则确定第一站点信息与第一基站信息对应同一站点,从而生成第一采集数据包。
步骤204,向服务器上传第一采集数据包,服务器用于根据各个终端上传的采集数据包生成站点与基站之间的对应关系。
在一种可能的实施方式中,服务器接收到大量终端上传的采集数据包后,统计同一站点信息对应的各个基站信息的出现次数,并将最高出现次数对应的基站信息确定为该站点信息对应的目标基站信息。
可选的,基于海量终端上传的采集数据包确定出站点与基站之间的对应关系后,服务器进一步生成各条地铁线路对应的基站列表,并将基站列表下发至相应终端,以便终端在地铁模式下基于该基站列表确定当前所处的站点,进而进行到站提醒。
采用本申请实施例提供的方法,开发人员无需在各个地铁站点进行实地测量,降低了数据采集的人工成本,并提高了数据采集的效率;同时,基于海量数据确定出的站点与基站之间的对应关系更加准确;此外,当站内基站发生变更时,服务器能够及时根据终端上报的数据对站点与基站之间的对应关系进行更新,提高后续到站提醒的准确性。
综上所述,本申请实施例中,当识别出终端处于刷码进站状态时,通过从刷码界面中获取当前所处站点的站点信息,并在识别出处于地铁乘坐状态时,进一步获取当前注册基站的基站信息,从而向服务器上报包含站点信息以及基站信息的采集数据包,以便服务器根据大量终端上传的采集数据包,确定出站点与基站之间的对应关系;采用本申请实施例提供的方法,借助海量终端用户乘坐地铁时的刷码进站行为进行数据采集,并基于海量数据确定出站点与站点处基站之间的对应关系,无需开发人员对各个站点进行实地测量,提高了数据采集效率,且海量数据有助于提高确定出的站点与基站之间对应关系的准确性。
请参考图3,其示出了本申请另一个示例性实施例提供的数据采集方法的流程图。本实施例以该方法由终端执行为例进行说明,该过程包括如下步骤:
步骤301,响应于识别出终端处于刷码支付状态,获取刷码支付状态下的刷码界面,刷码支付状态指通过显示支付码进行支付的状态。
由于用户可以使用专门应用程序、应用程序中的小程序或者快应用进行刷码进站,因此为了提高获取站点信息获取方式的适用场景,在一种可能的实施方式中,终端采用文字识别方式提取刷码界面中包含的站点信息。
可选的,当识别出满足刷码支付特征时,终端确定处于刷码支付状态。其中,刷码支付特征可以包括图像特征或终端状态特征中的至少一种,该终端状态特征可以包括屏幕亮度特征、终端姿态特征等等。
在一种可能的实施方式中,当识别出屏幕当前显示的图像包含支付码(包括二维码、条形码等等)时,终端确定处于刷码支付状态。
刷码支付过程中,为了提高扫码设备(比如扫码枪、设置有扫码机的进出站闸机)的扫描成功率,终端会在显示支付码的过程中提高屏幕亮度,并在刷码支付成功后恢复屏幕亮度。基于刷码支付状态下屏幕亮度的变化特征,在一种可能的实施方式中,响应于终端在亮屏状态下的屏幕亮度变化情况符合预设条件,终端确定处于刷码支付状态;并在屏幕亮度降低时进行自动截屏操作,得到刷码支付状态下的屏幕截图。
为了避免将用户手动调节屏幕亮度的行为误判断为刷码支付行为,在一种可能的实施方式中,该预设条件指屏幕亮度提高,并在保持预设时长后降低。
比如,该预设时长为10s,即终端检测到屏幕亮度提高,且10s内屏幕亮度降低(且降低至屏幕强度提高前的亮度),终端确定处于刷码支付状态。
可选的,为了进一步提高刷码支付状态的识别准确率,终端获取陀螺仪传感器数据,当陀螺仪传感器数据表征终端处于刷码支付姿态,且终端在亮屏状态下的屏幕亮度变化情况符合预设条件时,确定处于刷码支付状态。其中,刷码支付姿态为终端屏幕与水平面的夹角小于夹角阈值(比如60°)的姿态(即屏幕朝下的终端姿态)。
可选的,该刷码界面可以通过屏幕截图得到。
步骤302,对刷码界面进行图像识别,得到图像识别结果。
由于用户通过展示支付码可以在其它场景下进行支付(比如在超市结算时显示支付码以完成支付),因此获取到刷码界面后,终端进一步对刷码进行图像识别,从而得到指示该刷码界面是否为刷码进站界面的图像识别结果。
在一种可能的实施方式中,由于刷码进站页面与其他刷码支付页面相比存在明显的区别特征,因此终端对刷码界面进行图像处理,提取刷码界面的图像特征,并将该图像特征与刷码进站页面的图像特征进行特征比对,若两者匹配,则确定该刷码界面为刷码进站界面;若两者不匹配,则确定该刷码界面不是刷码进站界面。
可选的,对刷码界面进行图像识别可以包括如下步骤。
一、生成刷码界面对应的第一图像指纹,其中,图像指纹用于表征图像中色彩的分布特征。
由于用户可以通过多种途径刷码进站,若将刷码界面与不同刷码进站途径对应的刷码进站界面进行逐个像素匹配,需要花费大量时间,且鲁棒性较差。为了提高鲁棒性,并提高匹配速度,在一种可能的实施方式中,终端生成表征图像中色彩分布特征的图像指纹,从而基于刷码界面的图像指纹进行匹配。
可选的,终端对刷码界面进行下采样处理,得到目标尺寸的下采样图像(目的是降低匹配时的运算量,可以采用双线性插值算法进行下采样);对下采样图像进行灰度处理,得到灰度图像(目的是缩小像素点的色彩取值范围,进一步降低计算量);根据灰度图像中像素点的平均灰度值,以及各个像素点的灰度值,生成第一图像指纹。其中,若灰度图像中像素点的灰度值小于平均灰度值,则该像素点在第一图像指纹中的值为0,若灰度图像中像素点的灰度值大于平均灰度值,则该像素点在第一图像指纹中的值为1,最终得到的第一图像指纹即为0、1序列。
当然,除了上述方式外,终端还可以采用其他方式生成图像指纹,本实施例对此不作限定。
二、确定第一图像指纹与第二图像指纹的匹配度,第二图像指纹是刷码进站界面的图像指纹。
在一种可能的实施方式中,开发人员预先收集不同城市、不同刷码进站途径下的刷码进站界面,并生成刷码进站界面对应的第二图像指纹,并下发至终端。终端生成刷码界面对应的第一图像指纹后,即逐一确定第一图像指纹与各个第二图像指纹的匹配度。
三、响应于存在第二图像指纹与第一图像指纹的匹配度大于匹配度阈值,得到第一图像识别结果,第一图像识别结果表征刷码界面为刷码进站界面。
当存在第二图像指纹与第一图像指纹的匹配度大于匹配度阈值(比如90%,或图像指纹中不匹配的像素点数量小于5个)时,终端确定刷码界面为刷码进站界面,并生成第一图像识别结果。
四、响应于不存在第二图像指纹与第一图像指纹的匹配度大于匹配度阈值,得到第二图像识别结果,第二图像识别结果表征刷码界面不是刷码进站界面。
当不存在第二图像指纹与第一图像指纹的匹配度大于匹配度阈值时,终端确定刷码界面不是刷码进站界面,并生成第二图像识别结果,且不再执行后续文字识别步骤。
在其他可能的实施方式中,终端中设置有预训练的图像识别模型,该图像识别模型根据包含标注的样本图像训练得到,该样本图像包括正样本图像(即刷码进站界面)和负样本图像(即其他刷码支付界面)。终端将刷码界面输入图像识别模型,得到该图像识别模型输出的预测概率(输入图像为刷码进站界面的概率),从而根据该预测概率得到图像识别结果。
步骤303,响应于图像识别结果表征刷码界面为刷码进站界面,对刷码界面中包含的文字进行文字识别,得到文字识别结果。
在一种可能的实施方式中,终端中设置有文字识别模型,在进行文字识别时,终端即将刷码界面输入文字识别模型,得到文字识别模型输出的文字识别结果。
受限于终端的存储空间以及运算能力,终端所能够运行的神经网络模型的数据量较小,为了在保证文字识别准确性的同时,提高文字识别的效率,本申请实施例中所使用的文字识别模型不同于传统的文字识别模型,而是经过重新设计和训练得到。
传统的文字识别模型采用卷积神经网络(Convolutional Neural Networks,CNN)+循环神经网络(Recurrent Neural Network,RNN)的网络结构,其中,CNN用于进行文字特征的提取,而RNN则用于对文字特征进行分类,输出分类结果(即文字识别结果)。采用这种网络结构的文字识别模型,模型数据量庞大,且在模型推理过程中,RNN需要对文字特征进行额外的运算,进而导致文字识别的效率较低。
为了降低文字识别模型的数据量,并提高文字识别效率,本申请实施例中,文字识别模型采用特征提取网络+特征分类网络的网络结构,且特征提取网络采用稠密网络(Densenet)-一种由稠密块(dense block)构成的卷积神经网络,特征分类网络则采用全连接(fully-connected)网络。
可选的,为了进一步提高文字识别效率和准确性,终端从与当前刷码界面匹配的刷码进站界面中,获取站点信息的显示位置(可以预先通过人工标注),从而根据该显示信息从刷码界面中截取区域图像,并对该区域图像中的文字进行文字识别,得到文字识别结果。
步骤304,根据文字识别结果确定当前所处站点的第一站点信息。
可选的,终端确定文字识别结果中包含的关键字,并从关键字的相邻文字中提取第一站点信息,其中,该关键字与地铁站点名称相关,相邻文字与关键字在刷码界面中所处的位置相邻。示意性的,该关键字可以包括进站、站点、站等等,本实施例对此不作限定。
通过上述步骤301至304获取到第一站点信息后,终端对第一站点信息进行存储,并进一步通过下述步骤获取当前站点中站内基站的基站信息。
步骤305,获取麦克风采集的环境音,以及惯性传感器采集到的传感器数据。
通常情况下,地铁开门或关门时会发出警铃声,且地铁在出站时会经过一个明显的加速过程,因此,本申请实施例中,终端可以基于环境音和惯性传感器数据确定当前是否处于地铁乘坐状态。
在一种可能的实施方式中,识别出处于刷码进站状态后,终端通过麦克风持续采集环境音,并持续通过惯性传感器采集传感器数据。
进一步的,对于获取到的环境音,终端对环境音进行分析,确定环境音中是否包含目标警铃声;对于获取到的传感器数据,终端传感器数据进行分析,确定当前加速度状态是否符合地铁出站时的加速度状态,从而确定地铁是否处于出站状态。
由于地铁在发出目标警铃声后才会出站,因此在另一种可能的实施方式中,,响应于识别出处于刷码进站状态,获取第一预设时长内麦克风采集到的环境音;当识别出环境音中包含目标警铃声时,终端获取第二预设时长内惯性传感器采集的传感器数据,避免对无效环境音或无效传感器数据进行分析造成的处理资源浪费。
其中,第一预设时长以刷码进站时刻为起点,而第二预设时长则以目标警铃声的识别时刻为起点。
示意性的,当识别出处于刷码进站状态时,终端获取进站后10分钟内麦克风采集的环境音;当识别出环境音中存在目标警铃声时,终端通过惯性传感器采集传感器数据,并获取目标警铃声后1分钟内的传感器数据。
步骤306,响应于识别出环境音中包含目标警铃声,且传感器数据指示地铁处于出站状态,确定处于地铁乘坐状态,目标警铃声为地铁开门或关门时的警铃声。
在一种可能的实施方式中,终端对环境音的音频数据进行分帧加窗处理,得到若干音频帧,并对音频帧进行时频域特征提取(比如短时能量特征提取和梅尔频率倒谱系数特征提取),得到音频帧的时频域特征矩阵,从而将时频域特征矩阵输入声音识别模型,得到声音识别模型输出的目标警铃声识别结果。其中,该声音识别模型预先根据样本音频(包含/不包含目标警铃声的样本音频)训练得到。本申请实施例并不对识别目标警铃声的具体方式进行限定。
在一种可能的实施方式中,终端对获取到的传感器数据进行数据处理转换,得到大地坐标系下的加速度数据,从而根据该加速度数据的特征是否与地铁出站时的加速度特征匹配。本申请实施例并不对基于传感器数据识别运行状态的方式进行限定。
当识别出环境音中包含目标警铃声,且传感器数据指示地铁处于出站状态时,终端确定处于地铁乘坐状态,即当前所处的场景与到站提醒场景一致。
步骤307,响应于识别出处于地铁乘坐状态,获取当前注册基站的第一基站信息。
本步骤的实施方式可以参考步骤202,本实施例在此不再赘述。
步骤308,根据数据采集时刻所属的时段,确定数据置信度,其中,地铁乘坐低峰时段下数据的数据置信度高于地铁乘坐高峰时段下数据的数据置信度。
在一种可能的场景中,终端在地铁乘坐高峰采集到上述基站信息,然而,由于地铁乘坐高峰时,地铁站内环境嘈杂,且存在相互拥挤的情况,因此可能出现因采集时机错误导致基站信息不准确的问题。比如,终端将环境音中的手机铃声误识别为目标警铃声,导致在未乘坐上地铁时触发获取基站信息,而此时注册的基站仍旧是站外基站。
若后续服务器对不同场景下采集数据进行统一处理,可能会影响最终到的基站与站点之间对应关系的准确性。因此,为了进一步提高站点与基站之间对应关系的准确性,在一种可能的实施方式中,终端数据置信度添加至第一采集数据中。
可选的,终端根据数据采集时刻所属的时段,确定数据置信度。其中,不同时段对应不同数据置信度,且地铁乘坐低峰时段下数据的数据置信度高于地铁乘坐高峰时段下数据的数据置信度(因为地铁乘坐低峰时段时环境较为安静,且不会因乘客拥挤导致传感器数据突变)。
在一个示例性的例子中,终端在7:00至9:00(地铁乘坐高峰时段)这一时段内采集数据时,数据置信度为0.4;而在12:00至16:00(地铁乘坐低峰时段)这一时段内采集数据时,数据置信度为0.9。
步骤309,根据第一站点信息、第一基站信息和数据置信度生成第一采集数据包。
进一步的,终端根据第一站点信息、第一基站信息和数据置信度生成第一采集数据包。
步骤310,向服务器上传第一采集数据包。
在一种可能的实施方式中,服务器在统计同一站点信息对应的各个基站信息的出现次数,根据数据置信度对出现次数进行加权处理,并将最高出现次数对应的基站信息确定为该站点信息对应的目标基站信息。
在一个示例性的例子中,如图4所示,用户使用终端41进行刷码进站时,终端41对刷码界面411进行图像识别,获取到当前所处站点的站点信息42,并通过麦克风持续采集环境音412。当识别出环境音412中包含目标警铃声时,终端41进一步获取惯性传感器413采集到的传感器数据,并对传感器数据进行分析。当分析结果指示当前加速度情况符合地铁出站状态下的加速度变化情况时,终端41获取当前注册基站43的基站信息44,并将站点信息41和基站信息44打包成采集数据包后上传至服务器45。
本实施例中,终端以环境音中包含目标警铃声,且传感器数据指示地铁处于出站状态为依据,识别是否处于地铁乘坐状态,保证基站信息的采集场景与到站提醒场景一致,有助于提高后续确定站点与基站间对应关系的准确性。
此外,本实施例中,终端通过识别刷码支付状态,并对刷码支付状态下刷码界面进行图像识别,从而在刷码界面为刷码进站界面时通过文字识别技术,识别出刷码界面中的站点信息,提高了站点信息提取的准确性和适用性。
同时,本实施例中,终端根据采集数据时的时段,确定数据置信度,降低地铁乘坐高峰时段下采集到的低可靠性数据对后续确定对应关系的准确性造成影响。
除了在刷码进站时进行数据采集外,终端还可以在刷码出站时进行数据采集,从而进一步增加上传数据的数据量,加快服务器生成站点-基站对应关系的速度。在一种可能的实施方式中,如图5所示,上传第一采集数据包之后,还可以包括如下步骤。
步骤501,响应于传感器数据指示地铁处于进站状态,获取当前注册基站的第二基站信息。
在一种可能的实施方式中,地铁行进过程中,终端持续通过惯性传感器采集传感器数据,并对传感器数据进行分析,确定地铁是否处于进站状态。若处于进站状态,终端则获取当前注册基站的第二基站信息。其中,终端可以对获取到的传感器数据进行数据处理转换,得到大地坐标系下的加速度数据,从而根据该加速度数据的特征是否与地铁进站时的加速度特征匹配。
可选的,基于传感器数据识别出处于进站状态后,终端进一步对环境音进行识别,当识别出存在目标警铃声时,终端确定处于进站状态,以此提高进站识别的准确性。
步骤502,若传感器数据指示地铁在第三预设时长内未出站,识别终端是否处于刷码出站状态。
地铁进站后,会在停留一段时间后出站并驶向下一站点,若用户仍旧处于地铁乘坐状态,持续获取到的传感器数据将符合地铁出站特征,而当用户在当前站点出站时,持续获取到的传感器数据将不符合地铁出站特征。
因此,在一种可能的实施方式中,若传感器数据指示地铁在第三预设时长内未出站,终端进一步识别是否处于刷码出站状态。
示意性的,识别出地铁处于进站状态后,若在15秒内未识别出地铁出站,终端则进一步识别是否处于刷码出站状态。
其中,识别是否处于刷码出站状态的过程可以参考识别刷码进站状态的过程,本实施例在此不再赘述。
步骤503,响应于识别出终端处于刷码出站状态,从刷码界面获取当前所处站点的第二站点信息。
当识别出终端处于刷码出站状态时,终端从刷码(出站)界面获取当前所处站点的第二站点信息。其中,从刷码界面获取第二站点信息的过程可以参考获取第一站点信息的过程,本实施例在此不再赘述。
可选的,若在预设时长内(比如5分钟)未识别出刷码出站状态,终端确定用户换成,并丢弃第二基站信息。
步骤504,根据第二站点信息和第二基站信息生成第二采集数据包。
进一步的,终端将同一站点对应的第二站点信息和第二基站信息打包生成第二采集数据包。
可选的,终端可以采用与上述步骤308类似的步骤将数据置信度添加至第二采集数据包中,本实施例对此不作限定。
步骤505,向服务器上传所述第二采集数据包。
本实施例中,终端在刷码出站时进行数据采集,从而进一步增加上传数据的数据量,加快服务器生成站点-基站对应关系的速度。
除了在刷码出站时进行数据采集外,终端还可以在中间站点进行数据采集,并上报服务器。在一种可能的实施方式中,在图5基础上,如图6所示,上述步骤501之后还可以包括如下步骤。
步骤506,若传感器数据指示地铁在第三预设时长内出站,根据上一站点和地铁行驶方向确定当前所处站点的第三站点信息。
若在第三预设时长内识别出地铁出站,由于用户仍旧处于地铁乘坐状态,因此终端无法通过刷码界面获取当前站点的站点信息。本实施例中,终端基于上一站点以及地铁行驶方向,确定出当前所处站点的第三站点信息。
针对地铁行驶方向的确定方式,在一种可能的实施方式中,终端获取到第一站点信息,并基于传感器数据确定地铁处于出站状态时,根据传感器数据所指示的加速度方向。进一步的,终端获取当前所处站点对应的第一行驶方向(当前站点指向下一站点)和第二行驶方向(当前站点指向上一站点),并将与加速度方向匹配度最高的行驶方向确定为地铁行驶方向。后续过程中,终端即可根据地铁行驶方向和上一站点,确定出当前所处站点。
步骤507,根据第三站点信息和第二基站信息生成第三采集数据包。
进一步的,终端将同一站点对应的第三站点信息和第二基站信息打包生成第三采集数据包。
可选的,终端可以采用与上述步骤308类似的步骤将数据置信度添加至第三采集数据包中,本实施例对此不作限定。
步骤508,向服务器上传第三采集数据包。
需要说明的是,上述实施例可以通过合理组合形成新的实施例,本实施例在此不再赘述。
请参考图7,其示出了本申请一个实施例提供的数据采集装置的结构框图。该装置可以通过软件、硬件或者两者的结合实现成为终端的全部或一部分。该装置包括:
第一获取模块701,用于响应于识别出终端处于刷码进站状态,从刷码界面获取当前所处站点的第一站点信息,所述刷码进站状态指通过显示支付码进行进站支付的状态;
第二获取模块702,用于响应于识别出处于地铁乘坐状态,获取当前注册基站的第一基站信息;
生成模块703,用于根据所述第一站点信息和所述第一基站信息生成第一采集数据包;
上传模块704,用于向服务器上传所述第一采集数据包,所述服务器用于根据各个终端上传的所述采集数据包生成站点与基站之间的对应关系。
可选的,所述装置包括:
第三获取模块,用于获取麦克风采集的环境音,以及惯性传感器采集到的传感器数据;
第一确定模块,用于响应于识别出所述环境音中包含目标警铃声,且所述传感器数据指示地铁处于出站状态,确定处于所述地铁乘坐状态,所述目标警铃声为地铁开门或关门时的警铃声。
可选的,所述第三获取模块,用于:
响应于识别出处于所述刷码进站状态,获取第一预设时长内所述麦克风采集到的所述环境音;
响应于识别出所述环境音中包含所述目标警铃声,获取第二预设时长内所述惯性传感器采集到的所述传感器数据。
可选的,所述装置还包括:
第四获取模块,用于响应于所述传感器数据指示地铁处于进站状态,获取当前注册基站的第二基站信息;
识别模块,用于若所述传感器数据指示地铁在第三预设时长内未出站,识别所述终端是否处于刷码出站状态;
第五获取模块,用于响应于识别出所述终端处于所述刷码出站状态,从所述刷码界面获取当前所处站点的第二站点信息;
生成模块703,还用于根据所述第二站点信息和所述第二基站信息生成第二采集数据包;
上传模块704,还用于向所述服务器上传所述第二采集数据包。
可选的,所述装置还包括:
第二确定模块,用于若所述传感器数据指示地铁在所述第三预设时长内出站,根据上一站点和地铁行驶方向确定当前所处站点的第三站点信息;
生成模块703,还用于根据所述第三站点信息和所述第二基站信息生成第三采集数据包;
上传模块704,还用于向所述服务器上传所述第三采集数据包。
可选的,所述第一获取模块701,包括:
界面获取单元,用于响应于识别出所述终端处于刷码支付状态,获取所述刷码支付状态下的所述刷码界面,所述刷码支付状态指通过显示支付码进行支付的状态;
图像识别单元,用于对所述刷码界面进行图像识别,得到图像识别结果;
文字识别单元,用于响应于所述图像识别结果表征所述刷码界面为刷码进站界面,对所述刷码界面中包含的文字进行文字识别,得到文字识别结果;
站点确定单元,用于根据所述文字识别结果确定所述第一站点信息。
可选的,图像识别单元,用于:
生成所述刷码界面对应的第一图像指纹,其中,图像指纹用于表征图像中色彩的分布特征;
确定所述第一图像指纹与第二图像指纹的匹配度,所述第二图像指纹是所述刷码进出站界面的图像指纹;
响应于存在所述第二图像指纹与所述第一图像指纹的匹配度大于匹配度阈值,得到第一图像识别结果,所述第一图像识别结果表征所述刷码界面为所述刷码进站界面;
响应于不存在所述第二图像指纹与所述第一图像指纹的匹配度大于所述匹配度阈值,得到第二图像识别结果,所述第二图像识别结果表征所述刷码界面不是所述刷码进站界面。
可选的,生成模块703,用于:
根据数据采集时刻所属的时段,确定数据置信度,其中,地铁乘坐低峰时段下数据的数据置信度高于地铁乘坐高峰时段下数据的数据置信度;
根据所述第一站点信息、所述第一基站信息和所述数据置信度生成所述第一采集数据包。
综上所述,本申请实施例中,当识别出终端处于刷码进站状态时,通过从刷码界面中获取当前所处站点的站点信息,并在识别出处于地铁乘坐状态时,进一步获取当前注册基站的基站信息,从而向服务器上报包含站点信息以及基站信息的采集数据包,以便服务器根据大量终端上传的采集数据包,确定出站点与基站之间的对应关系;采用本申请实施例提供的方法,借助海量终端用户乘坐地铁时的刷码进站行为进行数据采集,并基于海量数据确定出站点与站点处基站之间的对应关系,无需开发人员对各个站点进行实地测量,提高了数据采集效率,且海量数据有助于提高确定出的站点与基站之间对应关系的准确性。
上述装置实施例中,各个模块或单元的功能实施过程可以参考上述方法实施例,本实施例在此不再赘述。
请参考图8,其示出了本申请一个示例性实施例提供的终端的结构方框图。该终端800可以是智能手机、平板电脑、可穿戴式设备等。本申请中的终端800可以包括一个或多个如下部件:处理器810、存储器820和显示屏830。
处理器810可以包括一个或者多个处理核心。处理器810利用各种接口和线路连接整个终端800内的各个部分,通过运行或执行存储在存储器820内的指令、程序、代码集或指令集,以及调用存储在存储器820内的数据,执行终端800的各种功能和处理数据。可选地,处理器810可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器810可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)、神经网络处理器(Neural-network Processing Unit,NPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责触摸显示屏830所需要显示的内容的渲染和绘制;NPU用于实现人工智能(Artificial Intelligence,AI)功能;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器810中,单独通过一块芯片进行实现。
存储器820可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory,ROM)。可选地,该存储器820包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。存储器820可用于存储指令、程序、代码、代码集或指令集。存储器820可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等;存储数据区可存储根据终端800的使用所创建的数据(比如音频数据、电话本)等。
显示屏830是用于显示用户界面的显示组件。可选的,该显示屏830还具有触控功能,通过触控功能,用户可以使用手指、触摸笔等任何适合的物体在显示屏830上进行触控操作。
显示屏830通常设置在终端800的前面板。显示屏830可被设计成为全面屏、曲面屏、异型屏、双面屏或折叠屏。显示屏830还可被设计成为全面屏与曲面屏的结合,异型屏与曲面屏的结合,本实施例对此不加以限定。
除此之外,本领域技术人员可以理解,上述附图所示出的终端800的结构并不构成对终端800的限定,终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。比如,终端800中还包括摄像组件、麦克风、扬声器、射频电路、输入单元、传感器(比如惯性传感器、角速度传感器、光线传感器等等)、音频电路、WiFi模块、电源、蓝牙模块等部件,在此不再赘述。
本申请实施例还提供了一种计算机可读介质,该计算机可读介质存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如上各个实施例所述的数据采集方法。
本申请实施例还提供了一种计算机程序产品,该计算机程序产品存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如上各个实施例所述的数据采集方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本申请实施例所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。计算机可读介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (11)

1.一种数据采集方法,其特征在于,所述方法包括:
响应于识别出终端处于刷码进站状态,从刷码界面获取当前所处站点的第一站点信息,所述刷码进站状态指通过显示支付码进行进站支付的状态;
响应于识别出处于地铁乘坐状态,获取当前注册基站的第一基站信息;
根据所述第一站点信息和所述第一基站信息生成第一采集数据包;
向服务器上传所述第一采集数据包,所述服务器用于根据各个终端上传的所述采集数据包生成站点与基站之间的对应关系。
2.根据权利要求1所述的方法,其特征在于,所述响应于识别出处于地铁乘坐状态,获取当前注册基站的第一基站信息之前,所述方法包括:
获取麦克风采集的环境音,以及惯性传感器采集到的传感器数据;
响应于识别出所述环境音中包含目标警铃声,且所述传感器数据指示地铁处于出站状态,确定处于所述地铁乘坐状态,所述目标警铃声为地铁开门或关门时的警铃声。
3.根据权利要求2所述的方法,其特征在于,所述获取麦克风采集的环境音,以及惯性传感器采集到的传感器数据,包括:
响应于识别出处于所述刷码进站状态,获取第一预设时长内所述麦克风采集到的所述环境音;
响应于识别出所述环境音中包含所述目标警铃声,获取第二预设时长内所述惯性传感器采集到的所述传感器数据。
4.根据权利要求2所述的方法,其特征在于,所述向服务器上传所述第一采集数据包之后,所述方法还包括:
响应于所述传感器数据指示地铁处于进站状态,获取当前注册基站的第二基站信息;
若所述传感器数据指示地铁在第三预设时长内未出站,识别所述终端是否处于刷码出站状态;
响应于识别出所述终端处于所述刷码出站状态,从所述刷码界面获取当前所处站点的第二站点信息;
根据所述第二站点信息和所述第二基站信息生成第二采集数据包;
向所述服务器上传所述第二采集数据包。
5.根据权利要求4所述的方法,其特征在于,所述响应于所述传感器数据指示地铁处于进站状态,获取当前注册基站的第二基站信息之后,所述方法还包括:
若所述传感器数据指示地铁在所述第三预设时长内出站,根据上一站点和地铁行驶方向确定当前所处站点的第三站点信息;
根据所述第三站点信息和所述第二基站信息生成第三采集数据包;
向所述服务器上传所述第三采集数据包。
6.根据权利要求1至5任一所述的方法,其特征在于,所述响应于识别出终端处于刷码进站状态,从刷码界面获取当前所处站点的第一站点信息,包括:
响应于识别出所述终端处于刷码支付状态,获取所述刷码支付状态下的所述刷码界面,所述刷码支付状态指通过显示支付码进行支付的状态;
对所述刷码界面进行图像识别,得到图像识别结果;
响应于所述图像识别结果表征所述刷码界面为刷码进站界面,对所述刷码界面中包含的文字进行文字识别,得到文字识别结果;
根据所述文字识别结果确定所述第一站点信息。
7.根据权利要求6所述的方法,其特征在于,所述对所述刷码界面进行图像识别,得到图像识别结果,包括:
生成所述刷码界面对应的第一图像指纹,其中,图像指纹用于表征图像中色彩的分布特征;
确定所述第一图像指纹与第二图像指纹的匹配度,所述第二图像指纹是所述刷码进出站界面的图像指纹;
响应于存在所述第二图像指纹与所述第一图像指纹的匹配度大于匹配度阈值,得到第一图像识别结果,所述第一图像识别结果表征所述刷码界面为所述刷码进站界面;
响应于不存在所述第二图像指纹与所述第一图像指纹的匹配度大于所述匹配度阈值,得到第二图像识别结果,所述第二图像识别结果表征所述刷码界面不是所述刷码进站界面。
8.根据权利要求1至5任一所述的方法,其特征在于,所述根据所述第一站点信息和所述第一基站信息生成第一采集数据包,包括:
根据数据采集时刻所属的时段,确定数据置信度,其中,地铁乘坐低峰时段下数据的数据置信度高于地铁乘坐高峰时段下数据的数据置信度;
根据所述第一站点信息、所述第一基站信息和所述数据置信度生成所述第一采集数据包。
9.一种数据采集装置,其特征在于,所述装置包括:
第一获取模块,用于响应于识别出终端处于刷码进站状态,从刷码界面获取当前所处站点的第一站点信息,所述刷码进站状态指通过显示支付码进行进站支付的状态;
第二获取模块,用于响应于识别出处于地铁乘坐状态,获取当前注册基站的第一基站信息;
生成模块,用于根据所述第一站点信息和所述第一基站信息生成第一采集数据包;
上传模块,用于向服务器上传所述第一采集数据包,所述服务器用于根据各个终端上传的所述采集数据包生成站点与基站之间的对应关系。
10.一种终端,其特征在于,所述终端包括处理器和存储器;所述存储器存储有至少一条指令,所述至少一条指令用于被所述处理器执行以实现如权利要求1至8任一所述的数据采集方法。
11.一种计算机可读存储介质,其特征在于,所述存储介质存储有至少一条指令,所述至少一条指令用于被处理器执行以实现如权利要求1至8任一所述的数据采集方法。
CN202010325562.9A 2020-04-23 2020-04-23 数据采集方法、装置、终端及存储介质 Active CN111401328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010325562.9A CN111401328B (zh) 2020-04-23 2020-04-23 数据采集方法、装置、终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010325562.9A CN111401328B (zh) 2020-04-23 2020-04-23 数据采集方法、装置、终端及存储介质

Publications (2)

Publication Number Publication Date
CN111401328A true CN111401328A (zh) 2020-07-10
CN111401328B CN111401328B (zh) 2023-07-18

Family

ID=71435340

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010325562.9A Active CN111401328B (zh) 2020-04-23 2020-04-23 数据采集方法、装置、终端及存储介质

Country Status (1)

Country Link
CN (1) CN111401328B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113207098A (zh) * 2021-04-30 2021-08-03 Oppo广东移动通信有限公司 站点信息的确定方法、装置、移动终端及存储介质
WO2021208617A1 (zh) * 2020-04-17 2021-10-21 Oppo广东移动通信有限公司 进出站识别方法、装置、终端及存储介质
CN113852915A (zh) * 2021-09-26 2021-12-28 上海上实龙创智能科技股份有限公司 地铁站设备控制方法、装置、电子设备及存储介质
CN114489868A (zh) * 2021-08-04 2022-05-13 荣耀终端有限公司 地铁出行检测方法及电子设备
CN115022448A (zh) * 2021-12-01 2022-09-06 荣耀终端有限公司 地铁出行检测方法及电子设备
CN115033308A (zh) * 2021-12-01 2022-09-09 荣耀终端有限公司 地铁出行检测方法及电子设备
CN115033309A (zh) * 2021-12-01 2022-09-09 荣耀终端有限公司 地铁出行检测方法及电子设备
CN115835209A (zh) * 2022-11-01 2023-03-21 深圳心派科技有限公司 对象匹配方法及系统
CN116033069A (zh) * 2022-07-15 2023-04-28 荣耀终端有限公司 通知消息的显示方法、电子设备及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103179511A (zh) * 2013-03-26 2013-06-26 清华大学 一种基于移动终端的地铁到站提醒方法
CN108279019A (zh) * 2017-12-30 2018-07-13 青岛真时科技有限公司 一种计步方法、装置和智能穿戴设备
CN108882177A (zh) * 2018-09-05 2018-11-23 北京工业大学 基于手机信令数据的机场轨道旅客识别方法
CN110971763A (zh) * 2019-12-10 2020-04-07 Oppo(重庆)智能科技有限公司 到站提醒方法、装置、存储介质及电子设备
CN111046288A (zh) * 2019-12-11 2020-04-21 Oppo广东移动通信有限公司 内容推荐方法、装置、终端及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103179511A (zh) * 2013-03-26 2013-06-26 清华大学 一种基于移动终端的地铁到站提醒方法
CN108279019A (zh) * 2017-12-30 2018-07-13 青岛真时科技有限公司 一种计步方法、装置和智能穿戴设备
CN108882177A (zh) * 2018-09-05 2018-11-23 北京工业大学 基于手机信令数据的机场轨道旅客识别方法
CN110971763A (zh) * 2019-12-10 2020-04-07 Oppo(重庆)智能科技有限公司 到站提醒方法、装置、存储介质及电子设备
CN111046288A (zh) * 2019-12-11 2020-04-21 Oppo广东移动通信有限公司 内容推荐方法、装置、终端及存储介质

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021208617A1 (zh) * 2020-04-17 2021-10-21 Oppo广东移动通信有限公司 进出站识别方法、装置、终端及存储介质
CN113207098A (zh) * 2021-04-30 2021-08-03 Oppo广东移动通信有限公司 站点信息的确定方法、装置、移动终端及存储介质
CN114661381B (zh) * 2021-08-04 2022-11-29 荣耀终端有限公司 地铁出行检测方法及电子设备
CN114661381A (zh) * 2021-08-04 2022-06-24 荣耀终端有限公司 地铁出行检测方法及电子设备
CN114489868B (zh) * 2021-08-04 2022-12-09 荣耀终端有限公司 地铁出行检测方法及电子设备
CN114489868A (zh) * 2021-08-04 2022-05-13 荣耀终端有限公司 地铁出行检测方法及电子设备
CN113852915A (zh) * 2021-09-26 2021-12-28 上海上实龙创智能科技股份有限公司 地铁站设备控制方法、装置、电子设备及存储介质
CN115033308A (zh) * 2021-12-01 2022-09-09 荣耀终端有限公司 地铁出行检测方法及电子设备
CN115033309A (zh) * 2021-12-01 2022-09-09 荣耀终端有限公司 地铁出行检测方法及电子设备
CN115022448A (zh) * 2021-12-01 2022-09-06 荣耀终端有限公司 地铁出行检测方法及电子设备
CN115033308B (zh) * 2021-12-01 2023-01-17 荣耀终端有限公司 地铁出行检测方法及电子设备
CN115033309B (zh) * 2021-12-01 2023-04-07 荣耀终端有限公司 地铁出行检测方法及电子设备
CN116033069A (zh) * 2022-07-15 2023-04-28 荣耀终端有限公司 通知消息的显示方法、电子设备及计算机可读存储介质
CN116033069B (zh) * 2022-07-15 2023-10-20 荣耀终端有限公司 通知消息的显示方法、电子设备及计算机可读存储介质
CN115835209A (zh) * 2022-11-01 2023-03-21 深圳心派科技有限公司 对象匹配方法及系统
CN115835209B (zh) * 2022-11-01 2023-09-01 深圳心派科技有限公司 对象匹配方法及系统

Also Published As

Publication number Publication date
CN111401328B (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
CN111401328B (zh) 数据采集方法、装置、终端及存储介质
CN108090458B (zh) 人体跌倒检测方法和装置
US11138903B2 (en) Method, apparatus, device and system for sign language translation
CN107862270B (zh) 人脸分类器训练方法、人脸检测方法及装置、电子设备
WO2021208617A1 (zh) 进出站识别方法、装置、终端及存储介质
CN110972112B (zh) 地铁运行方向的确定方法、装置、终端及存储介质
CN107766403B (zh) 一种相册处理方法、移动终端以及计算机可读存储介质
US20240169687A1 (en) Model training method, scene recognition method, and related device
CN111107278B (zh) 图像处理方法、装置、电子设备及可读存储介质
CN111339976B (zh) 室内定位方法、装置、终端及存储介质
WO2023138549A1 (zh) 图像处理方法、装置、电子设备及存储介质
WO2024001539A1 (zh) 说话状态识别方法及模型训练方法、装置、车辆、介质、计算机程序及计算机程序产品
CN110941992A (zh) 微笑表情检测方法、装置、计算机设备及存储介质
CN114140797A (zh) 图像处理方法、智能终端及存储介质
CN111128131B (zh) 语音识别方法、装置、电子设备及计算机可读存储介质
CN111104827A (zh) 图像处理方法、装置、电子设备及可读存储介质
CN115390678B (zh) 虚拟人交互方法、装置、电子设备及存储介质
CN114220175B (zh) 运动模式识别方法及其装置、设备、介质、产品
CN113326829B (zh) 视频中手势的识别方法、装置、可读存储介质及电子设备
CN114973293A (zh) 相似性判断方法、关键帧提取方法及装置、介质和设备
CN114511877A (zh) 一种行为识别方法、装置、存储介质及终端
CN113963310A (zh) 一种公交站的人流量检测方法、装置及电子设备
CN112115740A (zh) 用于处理图像的方法和装置
CN112070022A (zh) 人脸图像识别方法、装置、电子设备和计算机可读介质
CN108416261B (zh) 一种任务处理方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant