CN112566017A - 基于智能耳机的乘坐地铁提醒方法、设备及可读存储介质 - Google Patents
基于智能耳机的乘坐地铁提醒方法、设备及可读存储介质 Download PDFInfo
- Publication number
- CN112566017A CN112566017A CN202011319916.5A CN202011319916A CN112566017A CN 112566017 A CN112566017 A CN 112566017A CN 202011319916 A CN202011319916 A CN 202011319916A CN 112566017 A CN112566017 A CN 112566017A
- Authority
- CN
- China
- Prior art keywords
- user
- subway
- target
- taking
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 210000004556 brain Anatomy 0.000 claims abstract description 78
- 230000007613 environmental effect Effects 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 15
- 238000001914 filtration Methods 0.000 claims description 2
- 238000013136 deep learning model Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 5
- 230000007177 brain activity Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- DDVBPZROPPMBLW-IZGXTMSKSA-N latrunculin A Chemical compound C([C@H]1[C@@]2(O)C[C@H]3C[C@H](O2)CC[C@@H](\C=C/C=C/CC\C(C)=C/C(=O)O3)C)SC(=O)N1 DDVBPZROPPMBLW-IZGXTMSKSA-N 0.000 description 4
- NSHPHXHGRHSMIK-IWQSFCKSSA-N latrunculin B Natural products C[C@H]1CC[C@@H]2C[C@@H](C[C@@](O)(O2)[C@@H]3CSC(=O)N3)OC(=O)C=C(C)/CCC=C/1 NSHPHXHGRHSMIK-IWQSFCKSSA-N 0.000 description 4
- DDVBPZROPPMBLW-UHFFFAOYSA-N latrunculin-A Natural products O1C(=O)C=C(C)CCC=CC=CC(C)CCC(O2)CC1CC2(O)C1CSC(=O)N1 DDVBPZROPPMBLW-UHFFFAOYSA-N 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 239000008413 Feitai Substances 0.000 description 2
- 210000003710 cerebral cortex Anatomy 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 210000004761 scalp Anatomy 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 235000017166 Bambusa arundinacea Nutrition 0.000 description 1
- 235000017491 Bambusa tulda Nutrition 0.000 description 1
- 241001330002 Bambuseae Species 0.000 description 1
- 235000015334 Phyllostachys viridis Nutrition 0.000 description 1
- 239000011425 bamboo Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001242 postsynaptic effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
- G08B21/24—Reminder alarms, e.g. anti-loss alarms
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Remote Sensing (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了基于智能耳机的乘坐地铁提醒方法,该基于智能耳机的乘坐地铁提醒方法包括:自动获取采用智能耳机采集到的用户的脑电波信息,同时对应的脑电波进行识别,得到用户欲达的目标地点信息,然后获取目标地点信息对应的目标地点地理位置和当前地理位置,最后基于目标地点地理位置与当前地理位置的属性信息,和目标地点地理位置与当得到目标地点信息时获取到的用户所在的地理位置的属性信息之间的比较结果,自动确定用户乘坐地铁是否与目标地点的方向相反,及当用户乘坐地铁与目标地点的方向相反时,自动输出方向相反的提示指令,从而自动识别用户乘坐的地铁的运行方向,自动地提醒该用户,防止其误乘相反方向地铁且离目的地越来越远。
Description
技术领域
本发明涉及智能耳机领域,尤其涉及基于智能耳机的乘坐地铁提醒方法、计算机设备及可读存储介质。
背景技术
地铁,属于城市轨道交通之一,也是现代城市重要的公共交通之一,乘坐地铁的便捷性的需求日益明显。
地铁每天在城市中穿梭,因此地铁具有方向性,当出行时,若要乘坐地铁到达目的地,则需要乘坐对应方向的班次。但是,目前的上班族或年轻人在出行时,通常戴着耳机听音乐、看视频或打游戏,没有顾及地铁的走向,往往乘坐与目的地相反方向的地铁,且其无接收到提醒消息,从而导致其误乘地铁且离目的地越来越远。
因此,寻找一种基于智能耳机的乘坐地铁提醒方法成为本领域技术人员亟需解决的技术问题。
发明内容
本发明实施例提供基于智能耳机的乘坐地铁提醒方法、计算机设备及可读存储介质,以解决用户误乘地铁且离目的地越来越远的问题。
一种基于智能耳机的乘坐地铁提醒方法,包括:
获取采用所述智能耳机采集到的用户的脑电波信息;
基于所述脑电波信息,采用预设的脑电波识别模型对所述脑电波信息对应的脑电波进行识别处理,得到所述用户欲达的目标地点信息;
基于预设的信息位置对应关系,获取所述目标地点信息对应的目标地点地理位置;
获取所述用户的当前地理位置;
基于线属性信息与目标属性信息之间的比较结果,确定所述用户乘坐地铁是否与目标地点的方向相反,其中,所述线属性信息为所述目标地点地理位置与所述当前地理位置之间连接线的属性信息,所述目标属性信息为所述目标地点地理位置与时刻地理位置之间连接线的属性信息,所述时刻地理位置为当得到所述目标地点信息时获取到的所述用户所在的地理位置;
若所述用户乘坐地铁与目标地点的方向相反,则输出方向相反的提示指令。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
上述基于智能耳机的乘坐地铁提醒方法、计算机设备及可读存储介质中,通过自动获取采用智能耳机采集到的用户的脑电波信息,同时对应的脑电波进行识别,得到用户欲达的目标地点信息,然后获取目标地点信息对应的目标地点地理位置和当前地理位置,最后基于目标地点地理位置与当前地理位置的属性信息,和目标地点地理位置与当得到目标地点信息时获取到的用户所在的地理位置的属性信息之间的比较结果,自动确定用户乘坐地铁是否与目标地点的方向相反,及当用户乘坐地铁与目标地点的方向相反时,自动输出方向相反的提示指令,从而自动识别用户乘坐的地铁的运行方向,自动地提醒该用户,防止其误乘相反方向地铁且离目的地越来越远。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于智能耳机的乘坐地铁提醒方法的一应用环境示意图;
图2是本发明一实施例中基于智能耳机的乘坐地铁提醒方法的一流程图;
图3是本发明一实施例中基于智能耳机的乘坐地铁提醒方法的步骤S50的一流程图;
图4是本发明一实施例中方法中基于智能耳机的乘坐地铁提醒方法的步骤S40的一流程图;
图5是本发明一实施例中方法中基于智能耳机的乘坐地铁提醒方法的步骤S50的另一流程图;
图6是本发明一实施例中方法中对脑电波进行预处理的一流程图;
图7是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请提供的方法,可应用如图1的应用环境中,该应用环境包括服务端和客户端,其中,客户端通过有线网络或无线网络与服务端进行通信。其中,客户端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务端可以用独立的服务端或者是多个服务端组成的服务端集群来实现。客户端用于采集脑电波、当前地理位置、环境语音和环境图像,服务端用于分析脑电波、用户乘坐地铁与目标地点的方向是否相反、识别环境语音和环境图像。
在一实施例中,如图2所示,提供一种基于智能耳机的乘坐地铁提醒方法,以该基于智能耳机的乘坐地铁提醒方法应用在图1中的服务端为例进行说明,包括如下步骤:
S10、获取采用智能耳机采集到的用户的脑电波信息。
在本实施例中,脑电波是一种使用电生理指标记录大脑活动得到的数据,大脑在活动时,大量神经元同步发生的突触后电位经总和后形成的。它记录大脑活动时的电波变化,是脑神经细胞的电生理活动在大脑皮层或头皮表面的总体反映。
具体地,为了分析出用户欲达到的目标地点,需要分析用户的思想,所以采用智能耳机采集用户的脑电波,并根据采集到的脑电波生成对应的脑电波信息,同时采用无线网络将脑电波信息发送至服务端,服务端实时或预设时间段内接收脑电波信息。
可以理解的是,比如以深圳市为例,从获取采用VOW智能耳机采集到的用户欲达到的大芬地铁站脑电波信息,然后通过无线网络将大芬地铁站脑电波信息发送至服务端。
S20、基于脑电波信息,采用预设的脑电波识别模型对脑电波信息对应的脑电波进行识别处理,得到用户欲达的目标地点信息。
在本实施例中,为了知道用户的思想,也即为了知道用户欲达的目标地点,服务端需要预先采用用户的历史脑电波和历史内容作为训练的样本,训练深度学习模型,也即,将历史脑电波输入至深度学习模型中进行脑电波识别处理,得到深度学习模型输出的临时内容,判断临时内容与历史内容之间的误差是否在预设的误差条件内,若是,则将训练好的深度学习模型确定为脑电波识别模型;若否,则返回继续训练,直至临时内容与历史内容之间的误差是否在预设的误差条件内。
其中,深度学习模型可以为深度神经网络模型、循环神经网络模型或卷积神经网络模型等。深度学习模型的具体内容,可以根据实际应用进行设定,此处不做限制。
具体地,服务端基于在步骤S10中获取到的脑电波信息,采用预设的脑电波识别模型对脑电波信息对应的脑电波进行识别处理,得到用户欲达的目标地点信息,也即,服务端将在步骤S10中获取到的脑电波信息输入至预先训练好的脑电波识别模型对脑电波信息对应的脑电波进行脑电波识别处理,得到脑电波对应的内容,从而得到其对应的内容中用户欲达的目标地点信息。
S30、基于预设的信息位置对应关系,获取目标地点信息对应的目标地点地理位置。
在本实施例中,为了便于获取目标地点地理位置,也即,为了便于获取目标地点地理位置,预先建立位置数据库,该位置数据库收集了目前所有地铁站的地理位置,可以理解的是,目前所有地铁站为目前国内各个城市的地铁站。比如,目标地点为“深圳市大芬地铁站”,目标地点地理位置为“经度114.138138,维度22.614967”。
具体地,服务端根据预设的信息位置对应关系,获取在步骤S20中识别到的目标地点信息对应的目标地点地理位置的存储路径,同时根据该存储路径,在该位置数据库提取该目标地点地理位置。
S40、获取用户的当前地理位置。
在本实施例中,为了判断出用户乘坐地铁与目标地点的方向是否相反,服务端需要获取用户的当前地理位置,可以理解的是,可以采用定位获取当前地理位置,或者也可以采用语音识别和图像识别出用户的当前地理位置。其中,当前地理位置为用户当前所在的地点的地理位置。
比如,当前地理位置为“深圳市后海地铁站”,“深圳市后海地铁站”的坐标为“经度113.940262,维度22.51782”。
S50、基于线属性信息与目标属性信息之间的比较结果,确定用户乘坐地铁是否与目标地点的方向相反,其中,线属性信息为目标地点地理位置与当前地理位置之间连接线的属性信息。
在本实施例中,为了判断出用户乘坐地铁与目标地点的方向是否相反,服务端需要先得出目标地点地理位置与当前地理位置之间连接线的属性信息,和目标地点地理位置与时刻地理位置之间连接线的属性信息,其中,时刻地理位置为当得到目标地点信息时获取到的用户所在的地理位置,然后对该两个属性信息进行比较处理,最后基于比较结果,确定用户乘坐地铁是否与目标地点的方向相反,也即,若比较结果为是,则确定用户乘坐地铁与目标地点的方向相反,若比较结果为否,则确定用户乘坐地铁与目标地点的方向相同。
其中,属性信息包括直线距离或轨迹。
S60、若用户乘坐地铁与目标地点的方向相反,则输出方向相反的提示指令。
在本实施例中,若用户乘坐地铁与目标地点的方向相反,则服务端生成方向相反的提示指令,同时将该提示指令通过无线网络发送至智能耳机,当智能耳机接收到该提示指令时,通过麦克风输出该提示指令。
比如,目标地点为“深圳市大芬地铁站”,当前地点为“深圳市后海地铁站”,用户乘坐地铁方向为往机场方向运行的11号线,经比较后,用户乘坐地铁方向与从“深圳市后海地铁站”回“深圳市大芬地铁站”的方向相反,服务端生成“您好,您目前乘坐的地铁与欲到达目的地相反”。
在图2对应的实施例中,通过上述步骤S10至步骤S60,自动获取采用智能耳机采集到的用户的脑电波信息,同时对应的脑电波进行识别,得到用户欲达的目标地点信息,然后获取目标地点信息对应的目标地点地理位置和当前地理位置,最后基于线属性信息与目标属性信息之间的比较结果,自动确定用户乘坐地铁是否与目标地点的方向相反,及当用户乘坐地铁与目标地点的方向相反时,自动输出方向相反的提示指令,从而自动识别用户乘坐的地铁的运行方向,自动地提醒该用户,防止其误乘相反方向地铁且离目的地越来越远,降低了乘坐地铁的错误率。
在一具体实施例中,如图3所示,步骤S50(即,基于线属性信息与目标属性信息之间的比较结果,确定用户乘坐地铁是否与目标地点的方向相反)具体包括如下步骤:
S501、计算线属性信息对应的线距离与目标属性信息对应的目标距离之间的差值。
在本实施例中,为了判断用户乘坐地铁与目标地点的方向是否相反,服务端需要先计算线属性信息对应的线距离,也即,先计算目标地点地理位置与当前地理位置之间连接线的第一距离。
具体地,将目标地点地理位置与当前地理位置的坐标值,输入至如下距离计算公式中,得到第一距离。
距离计算公式:
C=sin(LatA)*sin(LatB)+cos(LatA)*cos(LatB)*cos(MLonA-MLonB);
Distance=R*Arccos(C)*Pi/180;
其中,C为临时值,R为地球半径,MLonA、LatA为按照0度经线的基准取得的当前地理位置的经、纬度值,MLonB、LatB为按照0度经线的基准取得的目标地理位置的经、纬度值,Pi为圆周率,Distance为第一距离。
同时,服务端需要计算目标属性信息对应的目标距离,也即,同时服务端需要计算目标地点地理位置与时刻地理位置之间连接线的第二距离。
具体地,将目标地点地理位置与时刻地理位置的坐标值,输入至上述距离计算公式中,得到第二距离。其中,C为临时值,R为地球半径,MLonA、LatA为按照0度经线的基准取得的时刻地理位置的经、纬度值,MLonB、LatB为按照0度经线的基准取得的目标地理位置的经、纬度值,Pi为圆周率,Distance为第二距离。
最后计算第一距离与第二距离之间的差值,以及判断该差值是否为非负数,若该差值为非负数,则执行步骤S502,若该差值为负数,则执行步骤S503。
S502、若差值为非负数,则确定比较结果为是。
具体地,若差值为非负数,则代表第一距离大于或等于第二距离,也即,若差值为正数,则代表线距离大于目标距离,代表用户远离目标地点,同时确定比较结果为是;若差值为零,代表线距离等于目标距离,代表用户原地不动,其中,该差值越大,用户越远离目标地点。
S503、若差值为负数,则确定比较结果为否。
具体地,若差值为负数,则代表第一距离小于第二距离,也即,若差值为负数,则代表线距离小于目标距离,代表用户靠近目标地点,同时确定比较结果为否,其中,该差值越小,用户越靠近目标地点。
S504、若比较结果为是,则确定用户乘坐地铁与目标地点的方向相反。
具体地,若确定出的比较结果为是,则确定用户乘坐地铁的正在运行方向,与用户从当前地点至目标地点的方向相反。
比如,假设当前地点为“深圳市大剧院地铁站”,目标地点为“深圳市大芬地铁站”,用户乘坐地铁的正在运行方向为往深圳市机场东方向,显然用户乘坐地铁的正在运行方向,与从“深圳市大剧院地铁站”至“深圳市大芬地铁站”的方向相反。
S505、若比较结果为否,则确定用户乘坐地铁与目标地点的方向相同。
具体地,若确定出的比较结果为否,则确定用户乘坐地铁的正在运行方向,与用户从当前地点至目标地点的方向相同。
比如,假设当前地点为“深圳市大剧院地铁站”,目标地点为“深圳市大芬地铁站”,用户乘坐地铁的正在运行方向为往深圳市丹竹头方向,显然用户乘坐地铁的正在运行方向,与从“深圳市大剧院地铁站”至“深圳市大芬地铁站”的方向相同。
在图3对应的实施例中,通过上述步骤S501至步骤S505,快速地计算出线距离与目标距离,从而快速地得出两者之间的差值,快速地根据差值是否为负数或非负数,快速地确定用户乘坐地铁与目标地点的方向是否相反,因此提高了确定用户乘坐地铁与目标地点的方向一致性的效率。
进一步地,因为现实当中,由于地形等原因,即使是分两个不同方向的地铁,在分开方向之前也要相同方向运行一段时间,所以为了提高识别方向的准确性,取预设时间段内均值线距离,从而提高获取线距离的准确性。
进一步地,获取用户的当前地理位置具体为:
获取采用智能耳机定位到的用户的当前地理位置,也即,采用智能耳机的GPS定位功能定位用户的当前地理位置。
在一具体实施例中,如图4所示,步骤S40(即,获取用户的当前地理位置)具体包括如下步骤:
S401、获取采用智能耳机采集到的用户当前所在地点的环境语音。
具体地,有时候因网络原因,智能耳机的GPS定位可能功能失效,当智能耳机的GPS定位功能失效时,为了能够清楚用户当前所在地点,需要采用智能耳机的语音采集模块采集用户当前所在地点的环境语音,当采集到该环境语音时,智能耳机通过无线网络将该环境语音发送至服务端,服务端实时或在预设的时间段内接收该环境语音。其中,语音采集模块为麦克风等。
其中,该环境语音可以为“乘客,您好,您目前候车的站为深圳东站”,可以理解的是,该环境语音的具体内容,可以根据实际应用进行设定,此处不做限制。
S402、获取采用智能耳机采集到的用户当前所在地点的环境图像。
具体地,有时候因环境语音不到,为了能够清楚用户当前所在地点,需要采用智能耳机的图像采集模块采集用户当前所在地点的环境图像,当采集到该环境图像时,智能耳机通过无线网络将该环境图像发送至服务端,服务端实时或在预设的时间段内接收该环境图像。其中,图像采集模块为摄像头等。
其中,该环境图像包含了地铁站的文字,比如该环境图像包含了“深圳市世界之窗地铁站”。
S403、将环境语音输入至预先训练好的语音识别模型中进行语音识别处理,得到将环境语音对应的第一环境文字。
具体地,为了识别出环境语音中的内容,服务端需要预先训练好语音识别模型,训练语音识别模型具体为:先将从历史数据库中获取历史环境语音和历史第一环境文字作为训练的样本,然后将样本输入至深度学习模型中进行语音识别处理,得到深度学习模型输出的临时文字,判断临时文字与历史第一环境文字之间的误差是否在预设的误差条件内,若是,则将训练好的深度学习模型确定为语音识别模型;若否,则返回继续训练,直至临时文字与历史第一环境文字之间的误差是否在预设的误差条件内。
其中,深度学习模型可以为深度神经网络模型、循环神经网络模型或卷积神经网络模型等。深度学习模型的具体内容,可以根据实际应用进行设定,此处不做限制。
具体地,服务端将步骤S401中获取到的环境语音输入至预先训练好的语音识别模型中进行语音识别处理,得到将该环境语音对应的第一环境文字。
S404、将环境图像输入至预先训练好的图像识别模型中进行图像识别处理,得到将环境图像对应的第二环境文字。
具体地,为了识别出环境图像中的内容,服务端需要预先训练好图像识别模型,训练过程同理与语音识别模型,在此不再阐述。
服务端将步骤S402中获取到的环境图像输入至预先训练好的图像识别模型中进行图像识别处理,得到将该环境图像对应的第二环境文字。
S405、若第一环境文字与第二环境文字一致,则将第一环境文字或第二环境文字中的地点确定为当前地理位置。
在本实施例中,服务端判断识别出的第一环境文字与第二环境文字是否一致,也即判断识别出的第一环境文字与第二环境文字的相似度是否一致,比如采用余弦相似度计算方法计算出第一环境文字与第二环境文字的相似度,若该相似度值大于或等于预设的阈值,则确定第一环境文字与第二环境文字一致,同时确定第一环境文字或第二环境文字中的地点为当前地理位置;若该相似度值小于预设的阈值,则确定第一环境文字与第二环境文字不一致,同时输出识别地点不一致的提示指令,当智能耳机接收到该提示指令,则输出该提示指令。
在图4对应的实施例中,通过上述步骤S401至步骤S405,实时抓取用户所在当前地点的环境语音和环境图像,从而识别环境语音和环境图像确定出当前地点为当前地理位置,只有当境语音和环境图像中识别出的当前地点一致时,确定当前地点为当前地理位置,因此提高了确定出当前地理位置的准确性。
在一具体实施例中,如图5所示,步骤S50(即,基于线属性信息与目标属性信息之间的比较结果,确定用户乘坐地铁是否与目标地点的方向相反)具体还包括如下步骤:
S506、计算线属性信息对应的线轨迹与目标属性信息对应的目标轨迹之间的相似度值。
具体地,为了确定用户乘坐地铁是否与目标地点的方向相反,服务端需要先绘制线轨迹和目标轨迹,也即,将时刻地理位置与当前地理位置进行连线处理,得到线轨迹,和将当前地理位置与目标地理位置进行连线处理,得到目标轨迹,然后采用欧氏距离相似度方法计算线轨迹与目标轨迹之间的相似度值。
S507、若相似度值大于或等于预设的轨迹阈值,则确定比较结果为是。
具体地,若步骤S506中计算出的相似度值大于或等于预设的轨迹阈值,则确定比较结果为是,也即,若线轨迹与目标轨迹一致,则确定比较结果为是。
需要说明的是,轨迹阈值的具体内容,可以根据实际应用进行设定,此处不做限制。
S508、若相似度值小于预设的轨迹阈值,则确定比较结果为否。
具体地,若步骤S506中计算出的相似度值小于预设的轨迹阈值,则确定比较结果为否,也即,若线轨迹与目标轨迹不一致,则确定比较结果为否。
需要说明的是,本步骤S508中轨迹阈值的内容与步骤S507中轨迹阈值的内容一致,此处不再阐述。
S509、若比较结果为是,则确定用户乘坐地铁与目标地点的方向相反。
具体地,若比较结果为是,则服务端确定用户乘坐地铁与目标地点的方向相反,也即,若比较结果为是,则服务端确定用户正在乘坐的地铁的运行方向与用户从当前地点到目标地点的方向相反。
S510、若比较结果为否,则确定用户乘坐地铁与目标地点的方向相同。
具体地,若比较结果为否,则确定用户乘坐地铁与目标地点的方向相同,也即,若比较结果为否,则服务端确定用户正在乘坐的地铁的运行方向与用户从当前地点到目标地点的方向相同。
在图5对应的实施例中,通过上述步骤S506至步骤S510,当在一个时间段内,无论远离或靠近目的地点所正在运行的地铁方向相同或相反时,都可以通过基于轨迹是否一致识别出用户乘坐地铁是否与目标地点的方向相反,因此提高了识别用户乘坐地铁与目标地点的方向一致性的准确性。
进一步地,获取采用智能耳机的微波采集器采集到的用户的脑电波信息,也即,采用微电流传感器采集在大脑皮层下或头皮上大脑活动时产生的微电流变化,同时将采集的信号按一定规律变换成为电信号,从而得到脑电波信息,从而提高了获取脑电波信息的准确性。
在一具体实施例中,如图6所示,还包括对脑电波进行预处理,具体包括如下步骤:
S701、对脑电波进行滤波处理,得到滤波后的脑电波。
具体地,为了取得准确的脑电波信息,服务端需要对脑电波进行滤波处理,得到滤波后的脑电波,也即,服务端需要对脑电波中的高频信号进行去除处理,得到纯净的脑电波。
S702、对滤波后的脑电波进行放大处理,得到放大后的脑电波。
具体地,为了取得准确的脑电波信息,服务端需要对滤波后的脑电波进行放大处理,得到放大后的脑电波,也即,为了提取到更全面精准的脑电波信息,服务端需要放大电路对对滤波后的脑电波进行放大处理,得到放大后的脑电波。
在图6对应的实施例中,通过上述步骤S701至步骤S702,从而去除脑电波的噪音,提高了脑电波的纯净度,进而提高了识别脑电波的准确性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务端,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性可读存储介质、内存储器。该非易失性可读存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性可读存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储方法所涉及到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例方法的步骤,例如图2所示的步骤S10至步骤S60。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例中方法。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取可读存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于智能耳机的乘坐地铁提醒方法,其特征在于,所述基于智能耳机的乘坐地铁提醒方法包括:
获取采用所述智能耳机采集到的用户的脑电波信息;
基于所述脑电波信息,采用预设的脑电波识别模型对所述脑电波信息对应的脑电波进行识别处理,得到所述用户欲达的目标地点信息;
基于预设的信息位置对应关系,获取所述目标地点信息对应的目标地点地理位置;
获取所述用户的当前地理位置;
基于线属性信息与目标属性信息之间的比较结果,确定所述用户乘坐地铁是否与目标地点的方向相反,其中,所述线属性信息为所述目标地点地理位置与所述当前地理位置之间连接线的属性信息,所述目标属性信息为所述目标地点地理位置与时刻地理位置之间连接线的属性信息,所述时刻地理位置为当得到所述目标地点信息时获取到的所述用户所在的地理位置;
若所述用户乘坐地铁与目标地点的方向相反,则输出方向相反的提示指令。
2.如权利要求1所述的基于智能耳机的乘坐地铁提醒方法,其特征在于,所述基于线属性信息与目标属性信息之间的比较结果,确定所述用户乘坐地铁是否与目标地点的方向相反包括:
计算线属性信息对应的线距离与目标属性信息对应的目标距离之间的差值;
若所述差值为非负数,则确定所述比较结果为是;
若所述差值为负数,则确定所述比较结果为否;
若所述比较结果为是,则确定所述用户乘坐地铁与目标地点的方向相反;
若所述比较结果为否,则确定所述用户乘坐地铁与目标地点的方向相同。
3.如权利要求2所述的基于智能耳机的乘坐地铁提醒方法,其特征在于,所述线距离为预设时间段内均值线距离。
4.如权利要求1所述的基于智能耳机的乘坐地铁提醒方法,其特征在于,所述获取所述用户的当前地理位置包括:
获取采用所述智能耳机定位到的所述用户的当前地理位置。
5.如权利要求1所述的基于智能耳机的乘坐地铁提醒方法,其特征在于,所述获取所述用户的当前地理位置包括:
获取采用所述智能耳机采集到的所述用户当前所在地点的环境语音;
获取采用所述智能耳机采集到的所述用户当前所在地点的环境图像;
将所述环境语音输入至预先训练好的语音识别模型中进行语音识别处理,得到将所述环境语音对应的第一环境文字;
将所述环境图像输入至预先训练好的图像识别模型中进行图像识别处理,得到将所述环境图像对应的第二环境文字;
若所述第一环境文字与所述第二环境文字一致,则将所述第一环境文字或所述第二环境文字中的地点确定为所述当前地理位置。
6.如权利要求1所述的基于智能耳机的乘坐地铁提醒方法,其特征在于,所述基于线属性信息与目标属性信息之间的比较结果,确定所述用户乘坐地铁是否与目标地点的方向相反包括:
计算线属性信息对应的线轨迹与目标属性信息对应的目标轨迹之间的相似度值;
若所述相似度值大于或等于预设的轨迹阈值,则确定所述比较结果为是;
若所述相似度值小于预设的轨迹阈值,则确定所述比较结果为否;
若所述比较结果为是,则确定所述用户乘坐地铁与目标地点的方向相反;
若所述比较结果为否,则确定所述用户乘坐地铁与目标地点的方向相同。
7.如权利要求1所述的基于智能耳机的乘坐地铁提醒方法,其特征在于,所述获取采用所述智能耳机采集到的用户的脑电波信息包括:
获取采用所述智能耳机的微波采集器采集到的用户的脑电波信息。
8.如权利要求1至7中任一项所述的基于智能耳机的乘坐地铁提醒方法,其特征在于,在所述基于所述脑电波信息,采用预设的脑电波识别模型对所述脑电波信息对应的脑电波进行识别处理,得到所述用户欲达的目标地点信息之前,所述基于智能耳机的乘坐地铁提醒方法还包括:
对所述脑电波进行滤波处理,得到滤波后的脑电波;
对所述滤波后的脑电波进行放大处理,得到放大后的脑电波。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8中任一项所述的基于智能耳机的乘坐地铁提醒方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的基于智能耳机的乘坐地铁提醒方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011319916.5A CN112566017A (zh) | 2020-11-23 | 2020-11-23 | 基于智能耳机的乘坐地铁提醒方法、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011319916.5A CN112566017A (zh) | 2020-11-23 | 2020-11-23 | 基于智能耳机的乘坐地铁提醒方法、设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112566017A true CN112566017A (zh) | 2021-03-26 |
Family
ID=75044697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011319916.5A Pending CN112566017A (zh) | 2020-11-23 | 2020-11-23 | 基于智能耳机的乘坐地铁提醒方法、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112566017A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113392171A (zh) * | 2021-05-17 | 2021-09-14 | 广东美她实业投资有限公司 | 基于智能耳机的公园安全提醒方法、设备及可读存储介质 |
CN113539270A (zh) * | 2021-07-22 | 2021-10-22 | 阳光保险集团股份有限公司 | 一种位置识别方法、装置、电子设备和存储介质 |
-
2020
- 2020-11-23 CN CN202011319916.5A patent/CN112566017A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113392171A (zh) * | 2021-05-17 | 2021-09-14 | 广东美她实业投资有限公司 | 基于智能耳机的公园安全提醒方法、设备及可读存储介质 |
CN113539270A (zh) * | 2021-07-22 | 2021-10-22 | 阳光保险集团股份有限公司 | 一种位置识别方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170366940A1 (en) | Travel and activity capturing | |
CN111563480B (zh) | 冲突行为检测方法、装置、计算机设备和存储介质 | |
CN112566017A (zh) | 基于智能耳机的乘坐地铁提醒方法、设备及可读存储介质 | |
Zhou et al. | A data-driven method for trip ends identification using large-scale smartphone-based GPS tracking data | |
WO2021017329A1 (zh) | 一种检测驾驶员分心的方法及装置 | |
CN110688929B (zh) | 一种人体骨架关节点定位方法及装置 | |
EP3772016A1 (en) | Method and apparatus for entering human face information into database | |
CN109670444B (zh) | 姿态检测模型的生成、姿态检测方法、装置、设备及介质 | |
CN111611894A (zh) | 人员轨迹预测方法、装置、计算机设备及存储介质 | |
CN115828112B (zh) | 一种故障事件的响应方法、装置、电子设备及存储介质 | |
CN109190588A (zh) | 一种人口分类的方法及装置 | |
WO2021115268A1 (zh) | 地铁运行方向的确定方法、装置、终端及存储介质 | |
CN105022999A (zh) | 一种人码伴随实时采集系统 | |
CN111611860B (zh) | 一种微表情发生检测方法及检测系统 | |
CN112770265B (zh) | 一种行人身份信息获取方法、系统、服务器和存储介质 | |
US20140025624A1 (en) | System and method for demographic analytics based on multimodal information | |
CN110322893A (zh) | 语音数据处理方法、装置、计算机设备和存储介质 | |
CN108920699B (zh) | 一种基于N2pc的目标识别反馈系统及方法 | |
CN111507467A (zh) | 神经网络模型的训练方法、装置、计算机设备及存储介质 | |
CN112489363A (zh) | 基于智能无线耳机的后方来车预警方法、设备及存储介质 | |
Goyal | Indian sign language recognition using mediapipe holistic | |
CN115470382A (zh) | 位置偏离预警方法、装置、电子设备及可读存储介质 | |
EP4080388A1 (en) | Multimodal, dynamic, privacy preserving age and attribute estimation and learning methods and systems | |
CN111081079A (zh) | 基于听写情况的听写控制方法及装置 | |
US11963771B2 (en) | Automatic depression detection method based on audio-video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210326 |