CN107204194A - 确定用户所处环境以及推断用户意图的方法和装置 - Google Patents
确定用户所处环境以及推断用户意图的方法和装置 Download PDFInfo
- Publication number
- CN107204194A CN107204194A CN201710396362.0A CN201710396362A CN107204194A CN 107204194 A CN107204194 A CN 107204194A CN 201710396362 A CN201710396362 A CN 201710396362A CN 107204194 A CN107204194 A CN 107204194A
- Authority
- CN
- China
- Prior art keywords
- audio
- frequency information
- user
- information
- characteristic parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000007613 environmental effect Effects 0.000 claims abstract description 97
- 230000033001 locomotion Effects 0.000 claims description 33
- 238000011946 reduction process Methods 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 11
- 238000011002 quantification Methods 0.000 claims description 10
- 238000001228 spectrum Methods 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 7
- 241000208340 Araliaceae Species 0.000 description 6
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 6
- 235000003140 Panax quinquefolius Nutrition 0.000 description 6
- 235000008434 ginseng Nutrition 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 241000209140 Triticum Species 0.000 description 2
- 235000021307 Triticum Nutrition 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- DMBHHRLKUKUOEG-UHFFFAOYSA-N diphenylamine Chemical compound C=1C=CC=CC=1NC1=CC=CC=C1 DMBHHRLKUKUOEG-UHFFFAOYSA-N 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 235000011888 snacks Nutrition 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- -1 wherein Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Environmental & Geological Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明提供一种确定用户所处环境以及推断用户意图的方法和装置,其中的推断用户意图的方法包括:获取基于用户设备的麦克风而采集的音频信息;对所述采集的音频信息进行处理以获得采集的音频信息的特征参数;根据所述采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境;根据所述用户所处环境推断所述用户的当前意图。本发明提供的技术方案能够使应用更好的符合用户的实际需求,提高了应用的生存周期以及竞争力,进而降低了应用的成本。
Description
技术领域
本发明涉及互联网技术,尤其涉及一种确定用户所处环境的方法、确定用户所处环境的装置、推断用户意图的方法以及推断用户意图的装置。
背景技术
随着互联网技术尤其是移动互联网技术的快速发展和普及,能够接入网络的智能移动设备(如智能移动电话以及平板电脑等)已经成为许多人随身必备的物品,人们利用其智能移动设备可以随时随地的实现邮件收发、即时消息交互以及网络访问等。
发明人在实现本发明过程中发现,目前可安装于智能移动设备中的应用(Application,APP)的种类以及数量都日渐丰富,如何使应用赢得用户的关注与喜爱,以提高应用的生存周期及对用户的粘性,降低应用的成本,对于应用开发方以及应用经营方而言都是非常重要的。
发明内容
本发明的目的之一在于提供一种确定用户所处环境以及推断用户意图的方法和装置。
根据本发明的第一个方面,提供了一种确定用户所处环境的方法,其中,该方法包括以下步骤:获取基于用户设备的麦克风而采集的音频信息;对所述采集的音频信息进行处理以获得采集的音频信息的特征参数;根据所述采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境。
根据本发明的第二个方面,提供了一种推断用户意图的方法,其中,该方法包括以下步骤:获取基于用户设备的麦克风而采集的音频信息;对所述采集的音频信息进行处理以获得采集的音频信息的特征参数;根据所述采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境;根据所述用户所处环境推断所述用户的当前意图。
根据本发明的第三个方面,提供了一种确定用户所处环境的装置,其中,该装置包括:采集音频信息模块,用于获取基于用户设备的麦克风而采集的音频信息;处理音频信息模块,用于对所述采集的音频信息进行处理以获得采集的音频信息的特征参数;确定所处环境模块,用于根据所述采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境。
根据本发明的第四个方面,提供了一种推断用户意图的装置,其中,该装置包括:采集音频信息模块,用于获取基于用户设备的麦克风而采集的音频信息;处理音频信息模块,用于对所述采集的音频信息进行处理以获得采集的音频信息的特征参数;确定所处环境模块,用于根据所述采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境;推断用户意图模块,用于根据所述用户所处环境推断所述用户的当前意图。
与现有技术相比,本发明具有以下优点:本发明通过预先存储各种环境信息各自对应的音频信息的特征参数,使本发明可以基于预先存储的各种环境信息各自对应的音频信息的特征参数对基于用户设备的麦克风而采集的音频信息的特征参数进行匹配判断,从而本发明可以根据匹配判断的结果较准确的确定出用户所处环境;由于获知用户所处环境可以使应用有针对性的向用户提供相应的服务,如通过根据用户所处环境推断出用户的当前意图,从而在应用向用户推送新的信息时,可以根据用户的当前意图向用户推送符合其当前意图的信息,这样,可以有效避免推送的信息由于冗余等原因而给用户带来困扰等问题,进而本发明可以增加用户对应用的粘度;由此可知,本发明提供的技术方案能够使应用更好的符合用户的实际需求,提高了应用的生存周期以及竞争力,进而降低了应用的成本。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例一的确定用户所处环境的方法流程图;
图2为本发明实施例二的推断用户意图的方法流程图;
图3为本发明实施例三的确定用户所处环境的装置示意图;
图4为本发明实施例四的推断用户意图的装置示意图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的实施例作详细描述。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然本发明的流程图将各项操作描述成顺序的处理,但是,其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
所述智能电子设备包括用户设备与网络设备。其中,所述用户设备包括但不限于电脑、智能移动电话以及PDA等;所述网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或者基于云计算(a oud Computing)的由大量计算机或者网络服务器构成的云,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。其中,所述智能电子设备可以接入网络并与网络中的其他智能电子设备进行信息交互操作。其中,所述智能电子设备所能够接入的网络包括但不限于互联网、广域网、城域网、局域网、VPN网络等。
需要说明的是,所述用户设备、网络设备以及网络等仅为举例,其他现有的或今后可能出现的智能电子设备或者网络如可适用于本申请,也应包含在本申请保护范围以内,并以引用方式包含于此。
后面描述所讨论的方法(其中一些通过流程图示出)实施例可以通过硬件、软件、固件、中间件、微代码、硬件描述语言或者其任意组合的形式来实施。当用软件、固件、中间件或者微代码来实施时,用以实施必要任务的程序代码或者代码段可以被存储在机器或计算机可读介质(比如存储介质)中。(一个或多个)处理器可以实施必要的任务。
这里所公开的具体结构和功能细节仅仅是代表性的,并且是用于描述本申请的示例性实施例的目的,但是,本申请可以通过许多替换形式来具体实现,并且不应当被解释成仅仅受限于这里所阐述的实施例。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
应当理解的是,当一个单元被称为“连接”或者“耦合”到另一个单元时,其可以直接连接或者耦合到所述另一个单元,也可以存在中间单元。与此相对的,当一个单元被称为“直接连接”或者“直接耦合”到另一个单元时,则不存在中间单元。应当按照类似的方式来解释被用于描述单元之间的关系的其他词语(例如,“处于...之间”相比于“直接处于...之间”,“与...邻近”相比于“与...直接邻近”等等)。
这里所使用的术语仅仅是为了描述具体实施例,而不是意图限制示例性实施例。除非上下文中明确地另有所指,否则,这里所使用的单数形式“一个”、“一项”还意图包括复数。还应当理解的是,这里所使用的术语“包括”和/或“包含”规定了所陈述的特征、整数、步骤、操作、单元和/或组件的存在,而不排除存在或者添加一个或更多的其他特征、整数、步骤、操作、单元、组件和/或其组合。
还应当提到的是,在一些替换实现方式中,所提到的功能/动作可以按照不同于附图中标示的顺序发生。举例来说,取决于所涉及的功能/动作,相继示出的两幅图实际上可以基本上同时执行或者有时可以按照相反的顺序来执行。
下面结合附图对本发明的技术方案作进一步详细描述。
实施例一、确定用户所处环境的方法。
图1为本实施例的确定用户所处环境的方法流程图。在图1所示的流程图中,本实施例的确定用户所处环境的方法包括:步骤S100、步骤S110以及步骤S120。
本实施例所记载的方法是在智能电子设备中执行的,且该方法通常是在用户侧的智能电子设备(如智能移动电话或者平板电脑等用户设备)中执行的,当然,本实施例也不排除该方法在网络侧的智能电子设备(如设置于云端的服务器等网络设备)中执行的可能性。本实施例不限制实现确定用户所处环境的方法的智能电子设备的具体表现形式,即本实施例不限制确定用户所处环境的方法所适用的硬件环境。
下面对图1中的各步骤分别进行详细描述。
S100、获取基于用户设备的麦克风而采集的音频信息。
具体的,本实施例可以通过开启用户设备的麦克风而采集到用户所处环境的音频信息,且每次采集到的音频信息可以存储在各自对应的音频文件中。
本实施例可以根据预定时间间隔定时的获取基于用户设备的麦克风而采集的音频信息;本实施例也可以针对用户设备的卫星定位信息进行判断,以确定是否需要获取基于用户设备的麦克风而采集的音频信息,即本实施例的方法可以可选的包括获取用户设备的卫星定位信息的操作。本实施例中的用户设备的卫星定位信息可以具体为用户设备的基于GPS(Global Position System,全球定位系统)的卫星定位信息,当然,用户设备的卫星定位信息也可以具体为用户设备的基于北斗卫星定位系统的卫星定位信息等。
在获取了用户设备的卫星定位信息的情况下,本实施例的获取基于用户设备的麦克风而采集的音频信息的一个具体例子为:根据连续多次获得的卫星定位信息确定用户设备的位置变化,在判断出位置变化超过预定距离的情况下,触发基于用户设备的麦克风的音频信息采集操作;如将上一次确定出用户所处环境时所获取到的用户设备的卫星定位信息作为初始位置,在后续每次获得用户设备的卫星定位信息时,均计算当前获得的用户设备的卫星定位信息与上述初始位置之间的距离,在计算出的距离超过预定距离(如500米或者800米或者1000米等)的情况下,本实施例触发基于用户设备的麦克风的音频信息采集操作,如输出麦克风开启命令,以使用户设备的麦克风处于工作/拾音状态,从而本实施例可以获得基于该麦克风而连续采集的具有预定时长(如不少于5-6秒)的音频信息。
在获取了用户设备的卫星定位信息的情况下,本实施例的获取基于用户设备的麦克风而采集的音频信息的另一个具体例子为:根据连续多次获得的卫星定位信息确定用户设备的运动状态是否发生了变化,在判断出用户设备的运动状态发生了变化,且距离运动状态发生变化的时间间隔达到了预定时间的情况下,触发基于用户设备的麦克风的音频信息采集操作;如将上一次确定出用户所处环境时所计算获得的用户设备的运动状态作为初始运动状态,在后续每次获得用户设备的卫星定位信息时,均可以根据前后相邻的两个卫星定位信息所表示的位置之间的距离以及前后相邻的两个卫星定位信息之间的时间差计算出用户设备的当前运动状态,在判断出用户设备的运动状态发生了变化(如在用户下班回家的过程中,其可能由于从座位上离开并走出办公室而使其由静止状态变化为速度为2m/s的运动状态,再如在用户下班回家的过程中,其可能由于步行至地铁站并乘坐地铁而使其由速度为2m/s的运动状态变化为速度为20m/s的运动状态),且距离运动状态发生变化的时间已经达到预定时间(如1-5分钟)的情况下,本实施例触发基于用户设备的麦克风的音频信息采集操作,如输出麦克风开启命令,以使用户设备的麦克风处于工作/拾音状态,从而本实施例可以获得基于该麦克风而连续采集的具有预定时长(如不少于5-6秒)的音频信息。
本实施例还可以针对获取基于用户设备的麦克风而采集的音频信息,预先设置除上述例举的两种条件之外的其他条件,并在预先设置的相应的条件满足时,获取基于用户设备的麦克风而采集的音频信息,本实施例不限制获取基于用户设备的麦克风而采集的音频信息的具体实现过程。
S110、对采集的音频信息进行处理以获得采集的音频信息的特征参数。
具体的,本实施例可以先对采集到的音频信息进行降噪处理,以消除音频信息中的噪声,如消除音频信息中的由用户设备而产生的噪声等;降噪处理后的音频信息同样可以存储于音频文件中,如降噪处理后的音频信息覆盖原音频文件中的音频信息;然后,本实施例可以针对降噪处理后的音频信息进行量化处理,如针对降噪处理后的音频信息进行标量量化处理或者矢量量化处理等,从而通过量化处理可以获得降噪处理后的音频信息的特征参数(即采集的音频信息的特征参数),如本实施例可以获得降噪处理后的音频信息的周期性脉冲的短时幅度谱等。本实施例不限制降噪处理和量化处理的具体实现过程以及音频信息的特征参数的具体表现形式。
S120、根据采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境。
具体的,本实施例预先设置有多种不同环境的音频信息的特征参数,而在通常情况下,本实施例可以预先为每一种环境分别设置多段音频信息(如针对每一种环境均进行多个音频信息的采集,从而获得每一种环境的多段音频信息)。本实施例预先为一个环境所设置的每一段音频信息都应该是可以反映出该环境的声音特点的音频信息;由于每一种环境的每一段音频信息均对应有一组特征参数,由此可知,本实施例中的每一种环境均对应有多组特征参数。上述提及的多种不同环境通常包含用户很可能会光顾的地方,如商城、超市、西餐厅、中餐厅、公交车站、公交车、办公室以及会场等等,本实施例不限制上述提及的多种不同环境的数量以及为每一种环境所设置的音频信息的数量(即本实施例不限制每一种环境所对应的特征参数的组数)等。
本实施例预先为每一种环境设置多组特征参数的一个具体的例子为:预先针对每一种环境分别采集多段环境声音的音频信息,且采集的每一段环境声音的音频信息通常是能够体现出相应环境声音的特点的音频信息,本实施例可以针对采集到的每一段环境声音的音频信息分别进行降噪处理以及量化处理,从而为每一段环境声音的音频信息均形成一组特征参数,之后,将多组特征参数与相应的环境信息对应存储起来,如存储一个环境标识与多组特征参数的对应关系等。
本实施例在利用预先存储的各种环境信息各自对应的特征参数来确定用户所处环境时,可以根据S110所获得的音频信息的特征参数以及预先存储的所有特征参数的匹配情况来确定用户所处环境,本实施例也可以在考虑特征参数的匹配情况的基础上,参考其他参数(如用户设备的具体位置信息以及移动速度等)来确定用户所处环境。下面例举三个具体的例子对本步骤进行说明。
第一个具体的例子:将经过S110处理并获得的音频信息的特征参数与预先存储的所有环境信息对应的各组特征参数分别进行匹配,并从匹配程度超过预定阈值(如60%)的所有组特征参数中,按照匹配程度从高到低的顺序选取匹配程度最高的N组(N为大于等于零的整数,如N为3-5)特征参数各自对应的环境信息,即获得N个环境信息,在判断出N个环境信息相同的情况下,将该环境信息确定为用户所处环境的信息;例如,按照匹配程度超过预定阈值且匹配程度从高到低的顺序选取出的匹配程度最高的3组特征参数与环境信息的对应关系如下述表1所示:
表1
匹配程度 | 环境信息 | |
第一组特征参数 | 91% | 环境A |
第二组特征参数 | 88% | 环境A |
第三组特征参数 | 65% | 环境A |
在上述表1中,由于匹配程度最高的三组特征参数所对应的环境信息相同(即均为环境A),因此,本实施例可以直接确定出用户所处环境为环境A。
第二个具体的例子:将经过S110处理并获得的音频信息的特征参数与预先存储的所有环境信息对应的各组特征参数分别进行匹配,并从匹配程度超过预定阈值(如60%)的所有组特征参数中,按照匹配程度从高到低的顺序选取匹配程度最高的N组(如3-5个)特征参数各自对应的环境信息,即获得N个环境信息,在判断出N个环境信息并不完全相同(如存在M个互不相同的环境信息,且M为大于零且小于等于N的整数)的情况下,查找相应时刻的用户设备的卫星定位信息,并判断相应时刻的卫星定位信息在地图上的相应点所表示的建筑等含义,然后,判断上述M个环境信息中的哪一个环境信息与该卫星定位信息在地图上的相应点所表示的含义更相符,从而本实施例可以将最相符的环境信息确定为用户所处环境的信息;例如,按照匹配程度超过预定阈值且匹配程度从高到低的顺序选取出的匹配程度最高的3组特征参数与环境信息的对应关系如下述表2所示:
表2
匹配程度 | 环境信息 | |
第一组特征参数 | 90% | 环境A |
第二组特征参数 | 85% | 环境B |
无 | 无 | 无 |
在上述表2中,由于匹配程度最高的两组特征参数所对应两种不同的环境信息(即环境A和环境B),如环境A为餐厅,环境B为火车站,如果相应时刻的卫星定位信息在地图上的相应点表示商业区的建筑物,则本实施例可以确定出用户所处环境为环境A,即餐厅。
第三个具体的例子:将经过S110处理并获得的音频信息的特征参数与预先存储的所有环境信息对应的各组特征参数分别进行匹配,并从匹配程度超过预定阈值(如60%)的所有组特征参数中,按照匹配程度从高到低的顺序选取匹配程度最高的N组(如3-5个)特征参数各自对应的环境信息,即获得N个环境信息,在判断出N个环境信息并不完全相同(如存在M个互不相同的环境信息,且M小于等于N)的情况下,本实施例可以再次获取基于用户设备的麦克风而采集的音频信息,并对采集的音频信息进行相应的处理以再次获得特征参数,之后将再次获得的特征参数与预先存储的所有环境信息对应的各组特征参数分别进行匹配,并再次从匹配程度超过预定阈值(如60%)的所有组特征参数中,按照匹配程度从高到低的顺序再次选取匹配程度最高的N组(如3-5个)特征参数各自对应的环境信息,即再次获得N个环境信息,然后,本实施例可以根据先后两次获得的N个环境信息中的相同的环境信息来确定用户所处环境;例如,本实施例第一次按照匹配程度超过预定阈值且匹配程度从高到低的顺序选取出的匹配程度最高的3组特征参数与环境信息的对应关系如下述表3所示,而本实施例第二次按照匹配程度超过预定阈值且匹配程度从高到低的顺序选取出的匹配程度最高的3组特征参数与环境信息的对应关系如下述表4所示:
表3
表4
匹配程度 | 环境信息 | |
第一组特征参数 | 87% | 环境A |
第二组特征参数 | 80% | 环境E |
第三组特征参数 | 62% | 环境B |
在上述表3和表4中,由于匹配程度最高的三组特征参数共同对应有两种不同的环境信息(即环境A和环境B),且环境A对应的匹配程度的均值为91%,而环境B对应的匹配程度的均值为71%,则本实施例可以确定出用户所处环境为环境A。
针对上述第二个例子需要说明的是,本实施例还可以利用用户设备的卫星定位信息确定出用户设备的运动状态(如运动速度等),从而可以将用户设备的运动状态与上述匹配程度结合起来以判断用户所处环境。在此不再针对具体的实现过程进行详细说明。
另外,本实施例根据匹配程度判断用户所处环境的判决策略以及在匹配程度的基础上参考其他参数以判断用户所处环境的判决策略可以根据实际需求来设置,本实施例不限制判决策略的具体设置方式。
本实施例确定出的用户所处环境不仅可以用于推断用户意图,而且也可以用于其他场景,如通过利用获得的用户所处环境可以记录用户在一段时间范围内的生活历程,从而可以在用户查看时呈现给用户或者定期的呈现给用户等。本实施例不限制确定出的用户所处环境的具体应用场景。
实施例二、推断用户意图的方法。
图2为本实施例的推断用户意图的方法流程图。
在图2所示的流程中,本实施例的推断用户意图的方法主要包括:步骤S200、步骤S210、步骤S220以及步骤S230。
本实施例所记载的方法是在智能电子设备中执行的,且该方法通常是在用户侧的智能电子设备(如智能移动电话或者平板电脑等用户设备)中执行的,当然,本实施例也不排除该方法在网络侧的智能电子设备(如设置于云端的服务器等网络设备)中执行的可能性。本实施例不限制实现推断用户意图的方法的智能电子设备的具体表现形式,即本实施例不限制确推断用户意图的方法所适用的硬件环境。
下面对图2中的各步骤分别进行说明。
S200、获取基于用户设备的麦克风而采集的音频信息。
S210、对采集的音频信息进行处理以获得采集的音频信息的特征参数。
S220、根据采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境。
上述步骤S200-S220请参见上述实施例一中的描述,在此不再重复说明。
S230、根据用户所处环境推断用户的当前意图。
具体的,由于用户的所处环境可以在一定程度上反映出用户的意愿,因此,本实施例可以根据用户的所处环境并结合预定策略推断出用户的当前意图;如在确定出的用户的所处环境为正在开会,则可以根据预定策略推断出用户的当前意图很可能为不希望被电话或者即时通讯工具等打扰,进而本实施例可以使在用户有电话呼叫时,采用播放忙音或者转至电话语音助手等方式来避免对用户的打扰成为可能;再如在确定出的用户的所处环境为早上去上班乘坐地铁时,可以根据预定策略推断出用户的当前意图很可能为希望获得一些最近时间(如昨天晚上到今天早上)的重大新闻事件,进而本实施例可以使向用户推荐相应的新闻成为可能;再如在确定出的用户的所处环境为在逛商场时,如果当前时间已经到了午餐或者晚餐时间,则可以根据预定策略推断出用户的当前意图很可能为希望在商场附近吃饭,进而本实施例可以使向用户推荐周围评价较高的餐馆信息或者小吃信息成为可能。在此不对根据预定策略推断出的用户的当前意图进行一一举例说明,本实施例不限制推断出的用户的当前意图的具体表现形式,且本实施例中的预定策略可以根据实际需求来设置。
实施例三、确定用户所处环境的装置。
图3为本实施例的确定用户所处环境的装置示意图。在图3所示的装置示意图中,本实施例的确定用户所处环境的装置主要包括:采集音频信息模块300、处理音频信息模块310以及确定所处环境模块320。可选的,本实施例的装置还包括:获取定位信息模块(图3中未示出)。
本实施例所记载的装置可以设置于智能电子设备中,且该装置通常设置于用户侧的智能电子设备(如智能移动电话或平板电脑等用户设备)中,当然本实施例也不排除该装置设置于网络侧的智能电子设备(如设置于云端的服务器等网络设备)中的可能性。本实施例不限制设置有确定用户所处环境的装置的智能电子设备的具体表现形式,即本实施例不限制确定用户所处环境的装置所适用的硬件环境。下面对图3中的各模块分别进行详细描述。
采集音频信息模块300主要用于获取基于用户设备的麦克风而采集的音频信息。采集音频信息模块300可以可选的包括第一子模块和第二子模块中的任意一个或者两个;其中的第一子模块主要用于在根据所述卫星定位信息确定出所述用户设备的位置变化超过预定距离的情况下,触发基于用户设备的麦克风的音频信息采集操作;其中的第二子模块主要用于在根据卫星定位信息确定出用户设备的运动状态发生了变化,且距离运动状态发生变化的时间达到预定时间的情况下,触发基于用户设备的麦克风的音频信息采集操作。
具体的,采集音频信息模块300可以通过开启用户设备的麦克风而采集到用户所处环境的音频信息,且采集音频信息模块300可以将每次采集到的音频信息存储在各自对应的音频文件中。
采集音频信息模块300可以根据预定时间间隔定时的获取基于用户设备的麦克风而采集的音频信息;采集音频信息模块300也可以针对用户设备的卫星定位信息进行判断,以确定是否需要获取基于用户设备的麦克风而采集的音频信息,即本实施例的装置可以可选的包括获取定位信息模块获取用户设备的卫星定位信息的操作。获取定位信息模块获取的用户设备的卫星定位信息可以具体为用户设备的基于GPS的卫星定位信息,当然,获取定位信息模块获取的用户设备的卫星定位信息也可以具体为用户设备的基于北斗卫星定位系统的卫星定位信息等。
在获取定位信息模块获取了用户设备的卫星定位信息的情况下,采集音频信息模块300获取基于用户设备的麦克风而采集的音频信息的一个具体例子为:采集音频信息模块300(如第一子模块)根据连续多次获得的卫星定位信息确定用户设备的位置变化,采集音频信息模块300(如第一子模块)在判断出位置变化超过预定距离的情况下,触发基于用户设备的麦克风的音频信息采集操作;如采集音频信息模块300(如第一子模块)将上一次确定出用户所处环境时所获取到的用户设备的卫星定位信息作为初始位置,在后续获取定位信息模块每次获得用户设备的卫星定位信息时,采集音频信息模块300(如第一子模块)均计算当前获得的用户设备的卫星定位信息与上述初始位置之间的距离,在计算出的距离超过预定距离(如500米或800米或1000米等)的情况下,采集音频信息模块300(如第一子模块)触发基于用户设备的麦克风的音频信息采集操作,如采集音频信息模块300输出麦克风开启命令,以使用户设备的麦克风处于工作/拾音状态,从而采集音频信息模块300(如第一子模块)可以获得基于该麦克风而连续采集的具有预定时长(如不少于5-6秒)的音频信息。
在获取定位信息模块获取了用户设备的卫星定位信息的情况下,采集音频信息模块300获取基于用户设备的麦克风而采集的音频信息的另一个具体例子为:采集音频信息模块300(如第二子模块)根据连续多次获得的卫星定位信息确定用户设备的运动状态是否发生了变化,采集音频信息模块300(如第二子模块)在判断出用户设备的运动状态发生了变化,且距离运动状态发生变化的时间间隔达到了预定时间的情况下,触发基于用户设备的麦克风的音频信息采集操作;如采集音频信息模块300(如第二子模块)将上一次确定出用户所处环境时所计算获得的用户设备的运动状态作为初始运动状态,在后续获取定位信息模块每次获得用户设备的卫星定位信息时,采集音频信息模块300(如第二子模块)均可以根据前后相邻的两个卫星定位信息所表示的位置之间的距离以及前后相邻的两个卫星定位信息之间的时间差计算出用户设备的当前运动状态,采集音频信息模块300(如第二子模块)在判断出用户设备的运动状态发生了变化(如在用户下班回家的过程中,其可能由于从座位上离开并走出办公室而使其由静止状态变化为速度为2m/s的运动状态,再如在用户下班回家的过程中,其可能由于步行至地铁站并乘坐地铁而使其由速度为2m/s的运动状态变化为速度为20m/s的运动状态),且在距离运动状态发生变化的时间已经达到预定时间(如1-5分钟等)的情况下,采集音频信息模块300(如第二子模块)触发基于用户设备的麦克风的音频信息采集操作,如采集音频信息模块300(如第二子模块)输出麦克风开启命令,以使用户设备的麦克风处于工作/拾音状态,从而采集音频信息模块300(如第二子模块)可以获得基于该麦克风而连续采集的具有预定时长(如不少于5-6秒)的音频信息。
采集音频信息模块300还可以针对获取基于用户设备的麦克风而采集的音频信息,预先设置除上述例举的两种条件之外的其他条件,并在预先设置的相应的条件满足时,采集音频信息模块300获取基于用户设备的麦克风而采集的音频信息,本实施例不限制采集音频信息模块300获取基于用户设备的麦克风而采集的音频信息的具体实现过程。
处理音频信息模块310主要用于对采集的音频信息进行处理以获得采集的音频信息的特征参数。
具体的,处理音频信息模块310可以先对采集到的音频信息进行降噪处理,以消除音频信息中的噪声,如消除音频信息中的由用户设备而产生的噪声等;处理音频信息模块310可以将降噪处理后的音频信息仍然存储于音频文件中,如处理音频信息模块310利用降噪处理后的音频信息覆盖原音频文件中的音频信息;然后,处理音频信息模块310可以针对降噪处理后的音频信息进行量化处理,如处理音频信息模块310针对降噪处理后的音频信息进行标量量化处理或者矢量量化处理等,从而通过量化处理处理音频信息模块310可以获得降噪处理后的音频信息的特征参数(即采集的音频信息的特征参数),如处理音频信息模块310可以获得降噪处理后的音频信息的周期性脉冲的短时幅度谱等。本实施例不限制处理音频信息模块310所执行的降噪处理和量化处理的具体实现过程以及音频信息的特征参数的具体表现形式。
确定所处环境模块320主要用于根据采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境。
确定所处环境模块320可以包括:第三子模块和第四子模块,其中的第三子模块主要用于将采集的音频信息的特征参数与所有环境信息对应的各段音频信息的特征参数分别进行匹配;第四子模块主要用于在匹配程度超过预定阈值的多段音频信息的特征参数分别对应的环境信息相同的情况下,根据相同的环境信息确定用户所处环境。
确定所处环境模块320还可以在包括第三子模块和第四子模块的基础上还包括:第五子模块以及第六子模块中的任意一个或者两个;其中的第五子模块主要用于在匹配程度超过预定阈值的多段音频信息的特征参数分别对应的环境信息不相同的情况下,根据用户设备的卫星定位信息以及所述不相同的多种环境信息确定用户所处环境;其中的第六子模块主要用于在匹配程度超过预定阈值的多段音频信息的特征参数分别对应的环境信息不相同的情况下,再次获取基于用户设备的麦克风而采集的音频信息,并根据先后两次获得的匹配程度超过预定阈值的多段音频信息的特征参数分别对应的环境信息中的相同的环境信息确定用户所处环境。
具体的,确定所处环境模块320中预先设置有多种不同环境的音频信息的特征参数,在通常情况下,确定所处环境模块320可以预先为每一种环境分别设置多段音频信息(如针对每一种环境均进行多个音频信息的采集,从而获得每一种环境的多段音频信息)。确定所处环境模块320预先为一个环境所设置的每一段音频信息都应该是可以反映出该环境的声音特点的音频信息;由于每一种环境的每一段音频信息均对应有一组特征参数,因此,本实施例中的每一种环境均对应有多组特征参数。上述提及的多种不同环境通常包含用户很可能会光顾的地方,例如商城、超市、西餐厅、中餐厅、公交车站、公交车、办公室以及会场等等,本实施例不限制上述提及的多种不同环境的数量以及确定所处环境模块320为每一种环境所设置的音频信息的数量(即本实施例不限制每一种环境所对应的特征参数的组数)等。
确定所处环境模块320预先为每一种环境设置多组特征参数的一个具体的例子为:确定所处环境模块320预先针对每一种环境分别采集多段环境声音的音频信息,且采集的每一段环境声音的音频信息通常是能够体现出相应环境声音的特点的音频信息,确定所处环境模块320可以调用处理音频信息模块310针对采集到的每一段环境声音的音频信息分别进行降噪处理以及量化处理,从而为每一段环境声音的音频信息均形成一组特征参数,之后,确定所处环境模块320将多组特征参数与相应的环境信息对应存储起来,如确定所处环境模块320存储一个环境标识与多组特征参数的对应关系等。
确定所处环境模块320在利用预先存储的各种环境信息各自对应的特征参数来确定用户所处环境时,可以根据处理音频信息模块310所获得的音频信息的特征参数以及预先存储的所有特征参数的匹配情况来确定用户所处环境,确定所处环境模块320也可以在考虑特征参数的匹配情况的基础上,参考其他参数(如用户设备的具体位置信息以及移动速度等)来确定用户所处环境。下面例举三个具体的例子对本步骤进行说明。
第一个具体的例子:确定所处环境模块320(如第三子模块)将经过处理音频信息模块310处理并获得的音频信息的特征参数与预先存储的所有环境信息对应的各组特征参数分别进行匹配,确定所处环境模块320(如第四子模块)从匹配程度超过预定阈值(如60%)的所有组特征参数中,按照匹配程度从高到低的顺序选取匹配程度最高的N组(如3-5个)特征参数各自对应的环境信息,即确定所处环境模块320(如第四子模块)可以获得N个环境信息,确定所处环境模块320(如第四子模块)在判断出N个环境信息相同的情况下,将该环境信息确定为用户所处环境的信息;例如,按照匹配程度超过预定阈值且匹配程度从高到低的顺序选取出的匹配程度最高的3组特征参数与环境信息的对应关系如上述表1所示,由于匹配程度最高的三组特征参数所对应的环境信息相同(即均为环境A),因此,确定所处环境模块320(如第四子模块)可以直接确定出用户所处环境为环境A。
第二个具体的例子:确定所处环境模块320(如第三子模块)将经过处理音频信息模块310处理并获得的音频信息的特征参数与预先存储的所有环境信息对应的各组特征参数分别进行匹配,确定所处环境模块320(如第四子模块)从匹配程度超过预定阈值(如60%)的所有组特征参数中,按照匹配程度从高到低的顺序选取匹配程度最高的N组(如3-5个)特征参数各自对应的环境信息,即确定所处环境模块320(如第四子模块)可以获得N个环境信息,确定所处环境模块320(如第五子模块)在判断出N个环境信息并不完全相同(如存在M个互不相同的环境信息,且M小于等于N)的情况下,确定所处环境模块320(如第五子模块)查找相应时刻的用户设备的卫星定位信息,并判断相应时刻的卫星定位信息在地图上的相应点所表示的建筑等含义,然后,确定所处环境模块320(如第五子模块)判断上述M个环境信息中的哪一个环境信息与该卫星定位信息在地图上的相应点所表示的含义更相符,从而确定所处环境模块320(如第五子模块)可以将最相符的环境信息确定为用户所处环境的信息;如按照匹配程度超过预定阈值且匹配程度从高到低的顺序选取出的匹配程度最高的3组特征参数与环境信息的对应关系如上述表2所示,由于匹配程度最高的两组特征参数所对应两种不同的环境信息(即环境A和环境B),如环境A为餐厅,环境B为火车站,如果相应时刻的卫星定位信息在地图上的相应点表示商业区的建筑物,则确定所处环境模块320(如第五子模块)可以确定出用户所处环境为环境A,即餐厅。
第三个具体的例子:确定所处环境模块320(如第三子模块)将经过处理音频信息模块310处理并获得的音频信息的特征参数与预先存储的所有环境信息对应的各组特征参数分别进行匹配,确定所处环境模块320(如第四子模块)从匹配程度超过预定阈值(如60%)的所有组特征参数中,按照匹配程度从高到低的顺序选取匹配程度最高的N组(如3-5个)特征参数各自对应的环境信息,即确定所处环境模块320(如第四子模块)可以获得N个环境信息,确定所处环境模块320(如第六子模块)在判断出N个环境信息并不完全相同(如存在M个互不相同的环境信息,且M小于等于N)的情况下,确定所处环境模块320(如第六子模块)可以触发获取音频信息模块300再次获取基于用户设备的麦克风而采集的音频信息,并使处理音频信息模块310对采集的音频信息进行相应的处理以再次获得特征参数,之后确定所处环境模块320(如第三子模块)将再次获得的特征参数与预先存储的所有环境信息对应的各组特征参数分别进行匹配,确定所处环境模块320(如第四子模块)再次从匹配程度超过预定阈值(如60%)的所有组特征参数中,按照匹配程度从高到低的顺序再次选取匹配程度最高的N组(如3-5个)特征参数各自对应的环境信息,即确定所处环境模块320(如第四子模块)再次获得N个环境信息,然后,确定所处环境模块320(如第六子模块)可以根据先后两次获得的N个环境信息中的相同的环境信息来确定用户所处环境;如确定所处环境模块320(如第四子模块)第一次按照匹配程度超过预定阈值且匹配程度从高到低的顺序选取出的匹配程度最高的3组特征参数与环境信息的对应关系如上述表3所示,而确定所处环境模块320(如第四子模块)第二次按照匹配程度超过预定阈值且匹配程度从高到低的顺序选取出的匹配程度最高的3组特征参数与环境信息的对应关系如上述表4所示,由于匹配程度最高的三组特征参数共同对应有两种不同的环境信息(即环境A和环境B),且环境A对应的匹配程度的均值为91%而环境B对应的匹配程度的均值为71%则确定所处环境模块320(如第六子模块)可以确定出用户所处环境为环境A。
针对上述第二个例子需要说明的是,确定所处环境模块320(如第五子模块)还可以利用用户设备的卫星定位信息确定出用户设备的运动状态(如运动速度等),从而确定所处环境模块320(如第五子模块)可以将用户设备的运动状态与上述匹配程度结合起来以判断用户所处环境。在此不再针对具体的实现过程进行详细说明。
另外,确定所处环境模块320根据匹配程度判断用户所处环境的判决策略以及在匹配程度的基础上参考其他参数以判断用户所处环境的判决策略可以根据实际需求来设置,本实施例不限制确定所处环境模块320中的判决策略的具体设置方式。
确定所处环境模块320确定出的用户所处环境不仅可以用于推断用户意图,而且也可以用于其他场景,如通过利用确定所处环境模块320获得的用户所处环境可以记录用户在一段时间范围内的生活历程,从而可以在用户查看时呈现给用户或者定期的呈现给用户等。本实施例不限制确定出的用户所处环境的具体应用场景。
实施例四、推断用户意图的装置。
图4为本实施例的推断用户意图的装置示意图。在图4所示的装置示意图中,本实施例的推断用户意图的装置包括:采集音频信息模块300、处理音频信息模块310、确定所处环境模块320以及意图推断模块430。一种可选的方式,本实施例的装置还包括:获取定位信息模块(图4中未示出)。
本实施例所记载的装置可以设置于智能电子设备中,且该装置通常设置于用户侧的智能电子设备(如智能移动电话或平板电脑等用户设备)中,当然本实施例也不排除该装置设置于网络侧的智能电子设备(如设置于云端的服务器等网络设备)中的可能性。本实施例不限制设置有推断用户意图的装置的智能电子设备的具体表现形式,即本实施例不限制推断用户意图的装置所适用的硬件环境。
采集音频信息模块300、处理音频信息模块310以及确定所处环境模块320所执行的操作如上述实施例三中的描述,在此不再重复说明,下面对图4中的意图推断模块430进行详细说明。
推断用户意图模块430主要用于根据用户所处环境推断用户的当前意图。
具体的,由于用户的所处环境可以在一定程度上反映出用户的意愿,因此,推断用户意图模块430可以根据用户的所处环境并结合预定策略推断出用户的当前意图;如在确定所处环境模块320确定出的用户的所处环境为正在开会,则推断用户意图模块430可以根据预定策略推断出用户的当前意图很可能为不希望被电话或者即时通讯工具等打扰,进而本实施例的装置可以使在用户有电话呼叫时,采用播放忙音或者转至电话语音助手等方式来避免对用户的打扰成为可能;再如在确定所处环境模块320确定出的用户的所处环境为早上去上班乘坐地铁时,推断用户意图模块430可以根据预定策略推断出用户的当前意图很可能为希望获得一些最近时间(如昨天晚上到今天早上)的重大新闻事件,进而本实施例的装置可以使向用户推荐相应的新闻成为可能;再如在确定所处环境模块320确定出的用户的所处环境为在逛商场时,如果当前时间已经到了午餐或者晚餐时间,则推断用户意图模块430可以根据预定策略推断出用户的当前意图很可能为希望在商场附近吃饭,进而本实施例的装置可以使向用户推荐周围评价较高的餐馆信息或者小吃信息成为可能。在此不对推断用户意图模块430根据预定策略推断出的用户的当前意图进行一一举例说明,本实施例不限制推断用户意图模块430推断出的用户的当前意图的具体表现形式,且推断用户意图模块430中的预定策略可以根据实际需求来设置。
需要注意的是,本发明的一部分可以被应用为计算机程序产品,例如计算机程序指令,当其被智能电子设备(如智能移动电话或者平板电脑等)执行时,通过该智能电子设备的操作可以调用或者提供根据本发明的方法和/或技术方案。而调用本发明的方法的程序指令,可能被存储在固定的或可移动的记录介质中,和/或通过广播或者其他信号承载媒体中的数据流而被传输,和/或被存储在根据所述程序指令运行的智能电子设备的工作存储器中。在此,根据本发明的一个实施例包括一个装置,该装置包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该装置运行基于前述根据本发明的多个实施例的方法和/或技术方案。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (10)
1.一种确定用户所处环境的方法,其中,所述方法包括以下步骤:
获取基于用户设备的麦克风而采集的音频信息;
对所述采集的音频信息进行处理以获得采集的音频信息的特征参数;
根据所述采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境。
2.根据权利要求1所述的方法,其中,所述方法还包括:
获取用户设备的卫星定位信息。
3.根据权利要求2所述的方法,其中,所述获取基于用户设备的麦克风而采集的音频信息包括:
在根据所述卫星定位信息确定出所述用户设备的位置变化超过预定距离的情况下,触发基于用户设备的麦克风的音频信息采集操作;和/或者
在根据所述卫星定位信息确定出用户设备的运动状态发生了变化,且距离运动状态发生变化的时间达到预定时间的情况下,触发基于用户设备的麦克风的音频信息采集操作。
4.根据权利要求1所述的方法,其中,所述对所述采集的音频信息进行处理以获得采集的音频信息的特征参数包括:
对所述采集的音频信息进行降噪处理以及量化处理,以获得所述采集的音频信息的周期性脉冲的短时幅度谱。
5.根据权利要求1至4中任一权利要求所述的方法,其中,所述预先存储的每一种环境信息均对应有至少一段音频信息的特征参数,且所述根据所述采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境包括:
将所述采集的音频信息的特征参数与所有环境信息对应的各段音频信息的特征参数分别进行匹配;
在匹配程度超过预定阈值的多段音频信息的特征参数分别对应的环境信息相同的情况下,根据所述相同的环境信息确定用户所处环境。
6.根据权利要求5所述的方法,其中,所述根据所述采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境还包括:
在匹配程度超过预定阈值的多段音频信息的特征参数分别对应的环境信息不相同的情况下,根据所述用户设备的卫星定位信息以及所述不相同的多种环境信息确定用户所处环境。
7.根据权利要求5所述的方法,其中,所述根据所述采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境还包括:
在匹配程度超过预定阈值的多段音频信息的特征参数分别对应的环境信息不相同的情况下,再次获取基于用户设备的麦克风而采集的音频信息,并根据先后两次获得的匹配程度超过预定阈值的多段音频信息的特征参数分别对应的环境信息中的相同的环境信息确定用户所处环境。
8.一种推断用户意图的方法,其中,所述方法包括:
获取基于用户设备的麦克风而采集的音频信息;
对所述采集的音频信息进行处理以获得采集的音频信息的特征参数;
根据所述采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境;
根据所述用户所处环境推断所述用户的当前意图。
9.一种确定用户所处环境的装置,其中,所述装置包括:
采集音频信息模块,用于获取基于用户设备的麦克风而采集的音频信息;
处理音频信息模块,用于对所述采集的音频信息进行处理以获得采集的音频信息的特征参数;
确定所处环境模块,用于根据所述采集的音频信息的特征参数以及预先存储的各种环境信息各自对应的音频信息的特征参数确定用户所处环境。
10.根据权利要求9所述的装置,其中,所述装置还包括:
获取定位信息模块,用于获取用户设备的卫星定位信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710396362.0A CN107204194A (zh) | 2017-05-27 | 2017-05-27 | 确定用户所处环境以及推断用户意图的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710396362.0A CN107204194A (zh) | 2017-05-27 | 2017-05-27 | 确定用户所处环境以及推断用户意图的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107204194A true CN107204194A (zh) | 2017-09-26 |
Family
ID=59906593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710396362.0A Pending CN107204194A (zh) | 2017-05-27 | 2017-05-27 | 确定用户所处环境以及推断用户意图的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107204194A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108198553A (zh) * | 2018-01-23 | 2018-06-22 | 北京百度网讯科技有限公司 | 语音交互方法、装置、设备和计算机可读存储介质 |
CN110598089A (zh) * | 2018-05-25 | 2019-12-20 | 重庆好德译信息技术有限公司 | 一种基于环境信息处理的语音助手方法和系统 |
CN111654889A (zh) * | 2020-05-28 | 2020-09-11 | Oppo广东移动通信有限公司 | 一种网络连接控制方法及终端、存储介质 |
CN113298212A (zh) * | 2021-05-25 | 2021-08-24 | 艾酷软件技术(上海)有限公司 | 图形码显示方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101473295A (zh) * | 2006-06-21 | 2009-07-01 | 松下电器产业株式会社 | 推断用户操作意图的装置及具备该装置的电子设备 |
CN102207771A (zh) * | 2010-05-12 | 2011-10-05 | 微软公司 | 推断参与运动捕捉系统的用户意图 |
CN102474701A (zh) * | 2009-07-27 | 2012-05-23 | 三星电子株式会社 | 移动终端及其操作方法 |
CN103370739A (zh) * | 2011-03-04 | 2013-10-23 | 高通股份有限公司 | 用于辨识环境声音的系统和方法 |
CN103918247A (zh) * | 2011-09-23 | 2014-07-09 | 数字标记公司 | 基于背景环境的智能手机传感器逻辑 |
US20140244249A1 (en) * | 2013-02-28 | 2014-08-28 | International Business Machines Corporation | System and Method for Identification of Intent Segment(s) in Caller-Agent Conversations |
-
2017
- 2017-05-27 CN CN201710396362.0A patent/CN107204194A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101473295A (zh) * | 2006-06-21 | 2009-07-01 | 松下电器产业株式会社 | 推断用户操作意图的装置及具备该装置的电子设备 |
CN102474701A (zh) * | 2009-07-27 | 2012-05-23 | 三星电子株式会社 | 移动终端及其操作方法 |
CN102207771A (zh) * | 2010-05-12 | 2011-10-05 | 微软公司 | 推断参与运动捕捉系统的用户意图 |
CN103370739A (zh) * | 2011-03-04 | 2013-10-23 | 高通股份有限公司 | 用于辨识环境声音的系统和方法 |
CN103918247A (zh) * | 2011-09-23 | 2014-07-09 | 数字标记公司 | 基于背景环境的智能手机传感器逻辑 |
US20140244249A1 (en) * | 2013-02-28 | 2014-08-28 | International Business Machines Corporation | System and Method for Identification of Intent Segment(s) in Caller-Agent Conversations |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108198553A (zh) * | 2018-01-23 | 2018-06-22 | 北京百度网讯科技有限公司 | 语音交互方法、装置、设备和计算机可读存储介质 |
US10991372B2 (en) | 2018-01-23 | 2021-04-27 | Beijing Baidu Netcom Scienc And Technology Co., Ltd. | Method and apparatus for activating device in response to detecting change in user head feature, and computer readable storage medium |
CN108198553B (zh) * | 2018-01-23 | 2021-08-06 | 北京百度网讯科技有限公司 | 语音交互方法、装置、设备和计算机可读存储介质 |
CN110598089A (zh) * | 2018-05-25 | 2019-12-20 | 重庆好德译信息技术有限公司 | 一种基于环境信息处理的语音助手方法和系统 |
CN111654889A (zh) * | 2020-05-28 | 2020-09-11 | Oppo广东移动通信有限公司 | 一种网络连接控制方法及终端、存储介质 |
CN113298212A (zh) * | 2021-05-25 | 2021-08-24 | 艾酷软件技术(上海)有限公司 | 图形码显示方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107204194A (zh) | 确定用户所处环境以及推断用户意图的方法和装置 | |
CN109461449A (zh) | 用于智能设备的语音唤醒方法及系统 | |
CN110266744A (zh) | 基于位置的边缘云资源调度方法及系统 | |
CN109637548A (zh) | 基于声纹识别的语音交互方法及装置 | |
CN107995101A (zh) | 一种用于将语音消息转为文本信息的方法与设备 | |
CN107831903A (zh) | 多人参与的人机交互方法及装置 | |
CN102316536B (zh) | 一种调整网页内容的方法及网关 | |
CN106327113A (zh) | 自动推送配送信息、提供揽收信息的方法、终端和服务器 | |
CN105279207B (zh) | 一种用户推荐方法、装置和系统 | |
CN105338154B (zh) | 一种联系人排序方法、装置及终端 | |
CN107302566A (zh) | 推送信息的方法和装置 | |
CN109121126A (zh) | 电子设备、消息推送方法及相关产品 | |
CN107506421A (zh) | 用于车机的信息推荐方法及装置、存储介质、终端 | |
CN106210094B (zh) | 周边热点路况展示方法、第一客户端、服务端及系统 | |
CN108847229A (zh) | 一种基于语音助手的信息交互方法及终端 | |
CN109036446A (zh) | 一种音频数据处理方法以及相关设备 | |
CN107194515A (zh) | 确定用户当前行为以及预测用户意图的方法和装置 | |
CN105353878B (zh) | 现实增强信息处理方法、装置及系统 | |
CN107666542A (zh) | 一种ivr业务的应答方法及ivr系统平台 | |
CN110136733A (zh) | 一种音频信号的解混响方法和装置 | |
CN103838861B (zh) | 一种基于三维gis动态显示信息的方法和显示系统 | |
CN104900237A (zh) | 一种用于对音频信息进行降噪处理的方法、装置和系统 | |
CN107808662A (zh) | 更新语音识别用的语法规则库的方法及装置 | |
CN108733278A (zh) | 一种匹配交友方法、移动终端及计算机存储介质 | |
CN105657203B (zh) | 智能设备语音通话中的降噪方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170926 |