CN104508739A - 动态语言模型 - Google Patents
动态语言模型 Download PDFInfo
- Publication number
- CN104508739A CN104508739A CN201380038870.1A CN201380038870A CN104508739A CN 104508739 A CN104508739 A CN 104508739A CN 201380038870 A CN201380038870 A CN 201380038870A CN 104508739 A CN104508739 A CN 104508739A
- Authority
- CN
- China
- Prior art keywords
- sequence
- terms
- user
- search query
- inquiry
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 34
- 238000003860 storage Methods 0.000 claims abstract description 17
- 238000004590 computer program Methods 0.000 claims abstract description 16
- 230000001105 regulatory effect Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 20
- 230000009471 action Effects 0.000 description 13
- 239000003607 modifier Substances 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000000712 assembly Effects 0.000 description 4
- 238000000429 assembly Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000009395 breeding Methods 0.000 description 2
- 230000001488 breeding effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000009182 swimming Effects 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/21—Design, administration or maintenance of databases
- G06F16/211—Schema design and management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/387—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
- G10L2015/0633—Creating reference templates; Clustering using lexical or orthographic knowledge sources
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/081—Search algorithms, e.g. Baum-Welch or Viterbi
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Remote Sensing (AREA)
- Mathematical Physics (AREA)
- Library & Information Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
用于语音识别的方法、系统和设备,包括在计算机存储介质上编码的计算机程序。其中一种方法包括:接收用于语音识别的基本语言模型,基本语言模型包括具有基本概率值的第一词语序列;接收与查询场境相关联的话音搜索查询;当查询场境满足与定制语言模型相关联的一个或多个准则时,确定要使用定制语言模型;获得定制语言模型,定制语言模型包括具有经过调节的概率值的第一词语序列,经过调节的概率值是基本概率值被根据查询场境来调节的;以及基于一个或多个概率,将话音搜索查询转换为文本搜索查询,每个概率对应于一个或多个词语序列的群组中的词语序列,群组包括具有经过调节的概率值的第一词语序列。
Description
技术领域
本说明书涉及语音识别。
背景技术
传统的话音(voice)搜索系统目的是将来自用户的话音输入转换为文本搜索查询。在典型的话音搜索系统中,话音接口接收用户的话音输入并将语音输入提供给语音(speech)识别引擎。语音识别引擎可以基于语言模型,将话音输入中的所说出的词语(spoken words)转换为文本搜索查询。然后,话音搜索系统将文本搜索查询提交给搜索引擎。因此,话音搜索系统允许用户在不键入文本搜索查询的情况下执行搜索。
发明内容
话音搜索系统应用定制语言模型将语音输入转换为文本搜索查询。话音搜索系统获得例如使用匿名搜索日志数据的集合构成的基本语言模型。话音搜索系统基于一个或多个定制准则(例如,地理位置、时间或气象)定制基本语言模型。在定制语言模型中,调节分配给与定制准则有关的一个或多个词语序列(word sequence)的概率值。
当话音搜索系统接收话音搜索查询时,话音搜索系统确定话音搜索查询的场境(context)。当场境成分满足定制准则时,话音搜索系统确定定制语言模型。然后,话音搜索系统使用定制语言模型将话音搜索查询转换为文本搜索查询。
一般而言,本说明书中所描述的主题的一个创新性方面可以在这样的方法中具体实施,所述方法包括以下动作:接收用于语音识别的基本语言模型,所述基本语言模型包括具有基本概率值的第一词语序列;接收话音搜索查询,所述话音搜索查询与查询场境相关联;当所述查询场境满足与定制语言模型相关联的一个或多个准则时,确定要使用所述定制语言模型;获得所述定制语言模型,所述定制语言模型包括具有经过调节的概率值的第一词语序列,所述经过调节的概率值是所述基本概率值被根据所述查询场境来调节的;以及基于一个或多个概率,将所述话音搜索查询转换为文本搜索查询,所述一个或多个概率的每一个对应于一个或多个词语序列的群组中的词语序列,所述一个或多个词语序列的群组包括所述具有经过调节的概率值的第一词语序列。该方案的其他实施例包括对应的计算机系统、装置以及记录在一个或多个计算机存储设备上的计算机程序,每个被配置为执行所述方法的动作。一个或多个计算机的系统可以被配置为借助于将在操作中使得系统执行动作的软件、固件、硬件或者它们的组合安装在系统上,执行特定的操作或动作。一个或多个计算机程序可以被配置为借助于包括指令来执行特定的操作或动作,当通过数据处理装置执行时,指令使得设备执行所述动作。
前述和其他实施例可以分别可选地包括一个或多个以下特征,单独或组合。获得所述定制语言模型包括基于所述查询场境从一个或多个定制语言模型中选择所述定制语言模型。获得所述定制语言模型包括使用一个或多个语言调节规则,基于接收的查询场境调节所述基本语言模型。
所述查询场境包括从其接收到所述话音搜索查询的用户设备的地理位置。所述方法包括确定所述词语序列与所述地理位置相关,其中所述经过调节的概率值包括所述基本概率值被基于所述词语序列与所述地理位置之间的关系程度来调节。所述词语序列包括位于所述地理位置或者接近所述地理位置的特征的名称;以及在所述查询场境中基于所述特征与所述地理位置之间的距离确定所述关系程度。所述词语序列包括以超过阈值的频率从所述地理位置接收的过去查询的词(term);以及基于所述频率确定所述关系程度。所述地理位置是一组或多组经纬度坐标限定的地理区域。所述查询场境包括用户提供的标识符,用于与所述话音搜索查询相关联。所述方法包括:确定与所述用户提供的标识符相关联的社团,所述社团包括与所述用户提供的标识符有关的一个或多个用户标识符;使用与所述社团中的所述用户标识符相关联的存储的查询日志,确定所述词语序列的出现频率;以及基于所述出现频率调节所述基本概率值。调节所述基本概率值进一步基于每个所述用户标识符与所述用户提供的标识符之间在所述社团中的关系程度。所述查询场境包括所述话音搜索查询的时间戳。获得所述定制语言模型包括:识别一个或多个电子文档,根据查询日志,所述一个或多个电子文档与搜索查询的数目相关联,所述搜索查询的数目满足阈值数目,所述搜索查询在所述时间戳的指定时间窗口中出现,所述一个或多个电子文档的每一个包括所述词语序列;以及基于所述搜索查询的数目调节所述基本概率值。所述一个或多个电子文档的每一个是新闻文章。所述方法包括:作为所述话音搜索查询的响应,提供所述文本搜索查询的一个或多个搜索结果,以用于在显示设备上显示。将所述话音搜索查询转换为文本搜索查询包括:基于所述定制语言模型中对应的经过调节的概率值,将所述话音搜索查询转换为包括所述第一词语序列的文本搜索查询。
本说明书中所述主题的特定实施例可以被实施为实现一个或多个以下优点。与传统的话音搜索系统相比,使用动态语言模型的话音搜索系统可以基于接收的话音输入提供更恰当的文本搜索查询。因为系统考虑了语音-文本转换中话音输入的特定环境,例如包括接收话音输入的时间、发出话音输入的位置和/或提供话音输入的用户的用户简档,根据特定环境可以定制所得的查询。因此,系统可以提供增强的用户体验。
下面的附图和说明书阐述动态语言建模技术的一个或多个实施例的细节。根据说明书和附图以及根据权利要求书,本技术的其他特征、目的和优点将显而易见。
附图说明
图1是提供用于提供话音搜索的示例系统的概述的框图。
图2是图示用于生成动态语言模型的示例规则的框图。
图3是图示动态语言模型的示例的基于地理的规则的视图。
图4是图示动态语言模型的示例的基于社团的规则的视图。
图5A和图5B是图示动态语言模型的示例实施方式的框图。
图6是使用定制语言模型的示例方法的流程图。
不同附图中相同的附图标记表示相同的元件。
具体实施方式
图1是提供用于提供话音搜索的示例系统的概述的框图。话音搜索系统102包括一个或多个计算机,计算机被编程为从用户接收用户的语音输入,使用动态语言模型将语音输入转换为文本搜索查询,接收响应于文本搜索查询的搜索结果,并响应于语音输入将搜索结果提供给用户。话音搜索系统102例如可以被实施在包括服务器的一个或多个计算机上,或者用户设备上。
话音搜索系统102包括被配置为从用户接收语音输入106的话音接口104。话音接口104例如可包括耦合到用户设备的声学-电学变换器或传感器(例如,麦克风)。语音输入106可包括口语词语序列。
话音搜索系统102包括语音识别子系统108。语音识别子系统108可以是话音搜索系统102的软件组件,其被配置为将语音输入106中的口语词语转换为文本搜索查询115。语音识别子系统108包括基本语言模型110。基本语言模型110可包括与词语序列相关联的概率值。在基本语言模型110中,例如(Wa,Wb,...,Wm)的给定的词语序列与例如P(Wa,Wb,...,Wm)的概率值相关联,其中,每个Wa,Wb,...,Wm包括词语、短语或句子。基本语言模型110可包括多个词语序列以及与每个词语序列相关联的概率值。
基本语言模型110可以是N元模型(例如,一元模型或多元模型)。在所示示例中,基本语言模型110是二元语言模型。基本语言模型包括与词语序列(Wx,Wy)相关联的概率值P(Wx,Wy)。可以使用以下公式计算概率值P(Wx,Wy):
P(Wx,Wy)≈P(Wx|<s>)P(Wy|Wx), (1)
其中P(Wx,Wy)是搜索查询中出现的词语序列(Wx,Wy)的概率,<s>指示搜索查询的开始,P(Wx|<s>)指示给定<s>、词语Wx跟随<s>的条件概率,而P(Wy|Wx)指示给定词语Wx、词语Wy跟随词语Wx的条件概率。
此外,基本语言模型110可包括与词语序列(Wp,Wq,Wr)相关联的概率值P(Wp,Wq,Wr)。可以在例如使用以下公式的二元模型中计算概率值P(Wp,Wq,Wr):
P(Wp,Wq,Wr)≈P(Wp|<s>)P(Wq|Wp)P(Wr|Wq) (2)
概率值P(Wx|<s>)、P(Wy|Wx)、P(Wp|<s>)、P(Wq|Wp)以及P(Wr|Wq)可以根据存储的过去接收到的查询来确定。
为了说明,词语序列(Wp,Wq,Wr)可以表示公众当中流行的搜索查询,例如与其他搜索查询相比出现更频繁的搜索查询。词语序列(Wx,Wy)可以表示只在特殊环境下流行的搜索查询。例如,(Wx,Wy)可以是位于地理区域(例如,城镇ABC)的风味餐厅的名称。话音搜索相同102更有可能从地理区域ABC中的用户而不是从地理区域ABC之外的用户接收具有查询词(Wx,Wy)的搜索查询。
在该示例中,地理区域ABC并非从其接收查询的多个地理区域当中特别流行的地理区域。因此,在基本语言模型中,P(Wp,Wq,Wr)可以大于P(Wx,Wy),指示一般而言,语音识别子系统108更有可能将语音输入106转换为文本搜索查询(Wp,Wq,Wr)而不是转换为文本搜索查询(Wx,Wy)。根据概率值的排序,在基本语言模型110中可将(Wp,Wq,Wr)排序第一,而将(Wx,Wy)排序在第一后面大约第n个位置。
语音识别子系统108包括模型定制模块112。模型定制模块112可以是语音识别子系统108的软件组件,其被配置为使得计算设备基于一个或多个调节因素动态地调节基本语言模型110,并生成定制语言模型114。调节因素是与基本语言模型110无关的信息项,可以影响将语音输入106转换为特定文本搜索查询的可能性。模型定制模块112例如可以基于位置、查询时间戳或其他参数中的一个或多个来确定调节因素。
例如,对于给定的语音输入,在基本语言模型110中概率值P(Wx,Wy)可以低于概率值P(Wp,Wq,Wr)。当考虑一个或多个调节因素,例如当满足特定位置条件时,模型定制模块112可以增加概率值P(Wx,Wy),使得定制语言模型114中的概率值P(Wx,Wy)高于基本语言模型110中的概率值P(Wx,Wy)。模型定制模块112可将定制语言模型114与位置(例如,地理区域ABC)相关联。模型定制模块112可以动态地调节基本语言模型110,以在查询时间生成定制语言模型114,使得定制语言模型114中一个或多个特定词语序列的概率不同于基本语言模型110中那些相同词语序列的概率。
语音识别子系统108被配置为接收与语音输入106相关联的查询场境117。查询场境117包括描述生成语音输入106的环境的数据。查询场境117可包括指示在哪里发出语音输入106的位置信息。例如,位置信息可包括基于其估计位置的经度和纬度参数、全球定位系统坐标、或者互联网协议(IP)地址。可以从用户设备获得位置信息。
语音识别子系统108被配置为确定是使用基本语言模型110还是定制语言模型114来将语音输入106转换为文本搜索查询115。例如,如果语音识别子系统108基于查询场境117确定提供语音输入106的用户位于地理区域ABC中,则语音识别子系统108可以使用定制语言模型114。但是,如果语音识别子系统108基于查询场境117确定提供语音输入106的用户不是位于地理区域ABC中,则语音识别子系统108可以使用基本语言模型110将语音输入106转换为文本搜索查询115。
因此,如果语音识别子系统108确定提供语音输入106的用户位于地理区域ABC中,则语音识别子系统108在语音识别中应用定制语言模型114,并根据语音输入106生成文本串。根据定制语言模型114中概率值的排序,如果其他一切相同,那么语音输入106更有可能与(Wx,Wy)而不是与(Wp,Wq,Wr)有关,因为在定制语言模型114中增加的概率值P(Wx,Wy)高于概率值P(Wp,Wq,Wr)。因此,语音识别子系统108将语音输入106转换为包括词(Wx,Wy)的文本串,或者提供显示选项列表,其中将(Wx,Wy)放置为高于(Wp,Wq,Wr),例如,放置在查询建议列表顶部处或附近,用于用户选择文本搜索查询。
如果语音识别子系统108确定提供语音输入106的用户不是位于与定制语言模型相关联的特定地理区域中,那么语音识别子系统108在语音识别中应用基本语言模型110,并根据语音输入106生成例如包括词(Wp,Wq,Wr)的文本串。
话音搜索系统102将由语音识别子系统108生成的文本串作为文本搜索查询115提交给搜索引擎116。文本搜索查询115可以包括基于定制语言模型114的搜索词“Wx Wy”,或者基于基本语言模型110的“WpWq Wr”。搜索引擎116可包括耦合到话音搜索系统102的web搜索引擎。话音搜索系统102从搜索引擎116接收一个或多个查询结果118,并提供查询结果118以用于在呈现界面120上显示,呈现界面120可以是用户设备上的组件(例如,web浏览器),或者可以是服务器上的组件,例如动态网页。呈现界面120可包括显示接口或话音输出接口。呈现界面120可以向用户呈现一个或多个查询结果118,例如显示的查询结果页面122,查询结果页面122例如可包括结果“Wx Wy餐厅”。
图2是图示用于生成定制语言模型(例如,定制语言模型114)的示例规则的框图。实施动态语言模型的系统获得基本语言模型202。系统可以从另一系统获得基本语言模型202。替代地,系统可以使用公开可用的语言建模技术(例如,RandLM或者CMU-Cambridge统计语言建模工具包),根据搜索日志204建立基本语言模型202。系统可以从搜索引擎获得搜索日志,搜索引擎与系统通信,或者是系统的一部分。在一些实施方式中,系统为系统所支持的每种语言获得单独的基本语言模型202。
系统可以使用地理语言模型规则206定制基本语言模型202。地理语言模型规则206包括当词语序列与指定地理区域中的地理特征有关,或者是从指定地理区域接收时,用于调节基本语言模型202中词语序列的概率值的调节因素。词语序列可以借助于例如是地理特征的名称、地址或者特性而与地理特征相关。
地理特征可包括与地理区域有关的任何特征或者位于地理区域处的任何实体。例如,地理特征可包括通常在特定位置出现的企业、地标、当地政府、街道、公园、学校或者事件。地理区域可包括国家、州、县、城市、企业区或者通过纬度和经度确定的坐标方格。
地理语言模型规则206可以通过地理区域分组。对于每个地理区域,系统将与地理区域中的地理特征有关的词语序列与调节因素相关联。调节因素可以指示与其他地理区域相比,来自指定地理区域的搜索查询更有可能包括与指定地理区域中的地理特征有关的词语序列的可能性。调节因素可包括乘子,在基本语言模型202中乘子应用于与词语序列相关联的概率值。
例如,地理语言模型规则包括用于词语序列(Wx,Wy)的调节因素,在本示例中,词语序列是位于地理区域ABC中的企业的名称。调节因素可包括乘子,乘子增加词语序列(Wx,Wy)的概率值P(Wx,Wy)。系统将乘子应用于基本语言模型202中的概率值P(Wx,Wy),以创建定制语言模型。定制语言模型可以与地理区域ABC相关联。当系统确定提供语音输入(例如,话音查询)的用户位于地理区域ABC中时,系统将定制语言模型用于语音识别。
系统可以基于来自地理数据存储器208、搜索日志204或者这两者的信息生成地理语言模型规则206。地理数据存储器208存储与每个地理区域相关联的地理特征的名称和位置。系统可以从登记的企业名称、公开的记录或者用户输入的列表获得名称和位置。例如,在地理区域ABC中具有名称(Wx,Wy)的餐厅的经营者可以将关联于地理区域ABC的名称(Wx,Wy)登记在web“黄页”或者地理数据存储器208中的公共企业列表的其他数据库。基于该数据库,系统可将名称(Wx,Wy)与地理区域ABC相关联。在地理数据存储器208中存储的名称可以被归一化(例如,去除大写、拼写校正,或者其他标准化),以映射到基本语言模型202中的词语序列。
系统可以分析搜索日志204,以生成系统用以确定调节因素的大小的查询频率信息。查询频率信息包括通过系统或者通过搜索引擎已经接收到特定查询的次数的计数。系统可以使用阈值来过滤查询频率信息。系统可以使用阈值来确定是否增加概率值。使用在搜索日志204中存储的信息,系统可以确定包括从不同位置的用户接收到的查询词(Wx,Wy)的话音或文本搜索查询的频率。当用户位于地理区域ABC处或者附近时,如果系统确定频率超过阈值,则系统可以指定具有调节因素的地理语言模型规则,所述调节因素增加基本语言模型202中的值P(Wx,Wy)。
系统可以使用社团语言模型规则210附加性或替代性地定制基本语言模型202。社团语言模型规则210包括基于用户的社团,用于调节基本语言模型202中的概率值的调节因素。基于用户A的社团中的用户提交的信息,为用户A调节用于基本语言模型202中的词语序列的概率值。信息例如可包括社团中的用户的一个或多个存储的查询。
如果系统以超过阈值的频率从用户A的社团当中的用户接收特定查询,则系统可以调节与查询相对应的词语序列的概率值。例如,基于来自用户A的社团中的用户的查询,系统可以确定,系统接收包括词语序列(Wa,Wb,Wc,Wd)的搜索查询的阈值数目。在一些实施方式中,在查询日志中将查询匿名,使得掩盖提交用户(例如,通过从存储的查询中消除源标识信息)。基于该确定,系统可以调节基本语言模型202,以为用户A、也为用户A的社团中的用户增加用于词语序列(Wa,Wb,Wc,Wd)的概率值。因此,对于用户A的社团中的用户,系统可以增加将语音输入识别为词语序列(Wa,Wb,Wc,Wd)的可能性,而不是在基本语言模型202中具有较高概率的某些其他词语序列,例如(We,Wf,Wg,Wh)。
系统可以基于从社团数据存储器212、搜索日志204或者这两者获得的信息生成社团语言模型规则210。社团数据存储器212可以存储与用户相关、并且每个相关用户选择提交给系统用于定制语言模型的信息。信息可包括相连接用户的圈子,相连接用户的圈子包括被标识为在社会上连接用户的一个或多个用户。可以从社交站点、虚拟群组、虚拟聊天室、联系人列表或者以上的任何组合检索信息。搜索日志204存储查询频率信息,查询频率信息可包括通过系统已经接收到的特定查询的次数的计数,并且对应于用户社团中的用户标识符。
系统可以附加性或替代性地使用事件语言模型规则214来定制基本语言模型202。事件语言模型规则214包括调节因素,用于调节基本语言模型202中的概率值。当词语序列与流行事件相关联时,可以增加与词语序列相关联的概率值。系统基于时间数据存储器216、或者搜索日志204、或者这两者中存储的信息生成事件语言模型规则214。指定事件可包括可以影响语音输入转换为特定词语序列的概率的任何事件。
在一些实施方式中,系统基于时间事件调节概率值。系统可以基于一天的时刻或者一周的某天来生成事件语言模型规则214。例如,系统可以确定在一天的指定时刻(例如,在中午和下午1点之间,或者在下午6点与下午8点之间),系统接收与餐厅有关的查询的数目或百分比,其中,数目或百分比超过阈值。系统可以基于数目或百分比,增加与餐厅有关的基本语言模型202中词语序列的概率值。
在一些实施方式中,系统基于气象事件调节概率值。系统可以基于气象信息生成事件语言模型规则214。可将系统配置为使得在给定的气象条件下,向词语序列的指定集合给予经过调节的概率值。事件数据存储器216可包括从一个或多个气象服务接收到的信息。当每个气象服务提供下雨的概率超过指定阈值的气象预报时,可以向有关于道路条件报道、洪水警告或者屋顶修缮的服务的名称给予较高的加权。
在一些实施方式中,系统使用流行新闻事件。系统可以基于一个或多个新闻报道中主题的流行性生成特定事件语言模型规则214。例如,事件数据存储器216可以存储来自不同新闻源的信息。当词语序列以超过阈值的频率在新闻源中出现时,系统可以生成事件语言模型规则214,该事件语言模型规则214增加与词语序列相关联的概率值。
图3是图示基于地理信息的示例动态语言模型的视图。在基于地理信息实施动态语言模型的系统中,系统通过地理信息来注释词语序列。在查询时间,系统基于从其接收语音输入的用户设备的地理位置来使用动态语言模型。
系统包括位置接口,该位置接口被配置为接收来自用户设备的位置信息。在一些实施方式中,位置接口可包括配置为接收来自位置已知的用户设备的纬度、经度或海拔信息的各种模块。在一些实施方式中,位置接口可包括配置为基于用户设备的互联网协议(IP)地址、用户设备所连接的无线接入点或者其他信息来确定用户设备的位置的各种模块。当用户设备位于不同的地理位置时,系统可将相同的语音输入转换为不同的文本搜索查询。
系统将地理区域划分为虚拟块的集合310。虚拟块的集合310的每个块可以对应于为块定制的语言模型。可以基于每个块的中心的纬度和经度坐标或者每个块的一个或多个顶点来限定所述块。在一些实施方式中,可以基于每个块的角以及块尺寸来限定所述块。可以按照公里、英里或者纬度或经度的度数来限定块尺寸。
系统标识位于虚拟块的集合310的块7的实体312。实体312可以是与块7永久性或者基本上永久性关联的特征。例如,实体312可以是位于块7中的企业,企业具有在系统中登记或者在耦合到系统的记录器中登记的企业名称,例如,词语序列(Wx,Wy)。系统可以创建与块7相关联的动态语言模型。在此动态语言模型中,通过乘子调节与实体相关联的词语序列的概率值P(Wx,Wy),使得增加概率值。
系统可以为虚拟块的集合310的每个块创建定制语言模型。在每个定制语言模型中,通过基于块7与动态语言模型所关联的块之间的距离确定的量,调节与实体312相关联的词语序列的概率值。特别地,可以基于距离将量打折。距离例如可以是欧几里得距离、曼哈顿距离或者通过估计的行进时间测量的距离。对于是块7的近邻的那些块(例如,块4、5和8),对应的动态语言模型可以具有用于概率值P(Wx,Wy)的第一调节量。对于是块7的远邻的那些块(例如,块1-3、6和9),对应的动态语言模型可以具有用于概率值P(Wx,Wy)的第二调节量,其中第二调节量小于第一调节量。对于远离块7的那些块(未示出),概率值P(Wx,Wy)可以保持不调节。
当系统接收来自用户设备的语音输入时,系统确定用户设备位于虚拟块的集合310的哪一个。然后系统应用与块相关联的语言模型,将语音输入转换为文本搜索查询。
图4是图示基于用户的社团的示例动态语言模型400的视图。对于给定用户,当通过用户的社团中的用户以满足阈值的频率使用词语序列时,系统调节语言模型中词语序列的概率值。频率可以是绝对频率或相对频率。
系统可以接收特定社交站点的登记用户(用户A)的用户数据402。用户数据402可包括用于用户A的用户标识符,以及在用户A请求语音识别改善之后通过用户A提交的用户信息。用户信息例如可包括用户的家庭位置、用户喜好以及与用户相关联的其他信息。
系统基于用户数据402生成用于用户A的语言模型调节规则404。系统可以基于位置、喜好以及其他信息来生成语言模型调节规则。例如,如果用户A提交了包括特定查询词的查询,并且如果用户A提交了该查询指定次数(例如,一次,或者一次以上),则系统可以创建语言模型调节规则404中的规则,增加包括查询词的词语序列的概率。
系统可以基于用户提供或授权的用户数据402标识用户A的社交网络。社交网络可包括用户指定的社交连接圈子(例如,朋友圈),基于用户A的联系人列表的用户的列表,或者基于用户与用户A之间的常见活动(例如,聊天室参与)的用户的列表。系统可以确定用户与用户A之间的关系程度。例如,系统可以确定用户B和用户C与用户A直接相关,并且因此以第一程度与用户A相关。系统可以确定用户D、E、F和G通过用户B和用户C与用户A相关,并且因此以第二程度与用户A相关。
在用户A的社交网络中的用户(用户B到用户G)请求为他们以及他们的社交连接圈子中的用户改善语音识别之后,系统接收来自这些用户的用户数据412、414、416、418、420和422。系统可以对于用户B到用户G分别创建模型调节规则432、434、436、438、440和442。系统可以基于用户数据412-422,或者模型调节规则4320442,或者这两者生成语言模型调节规则404的至少一部分。
在一些实施方式中,系统使用用户的社交连接的查询来建立定制语言模型。例如,根据用户数据412,用户B已经使用包含某些查询词的查询执行搜索一次或以上。系统基于用户B的搜索频率以及用户B与用户A之间的关系程度,增加包括查询词的词语序列的概率值。
在一些实施方式中,系统使用除了用户朋友的查询之外的信息来建立定制语言模型。例如,如果用户B和用户C在有用户A的参与或者没有用户A的参与的情况下讨论了具有名称“Wx Wy”的餐厅,或者已经使用查询“Wx Wy”搜索,那么系统可以为用户A在定制语言模型中增加用于词语序列(Wx,Wy)的概率。
用户A的社交网络的应用可以基于每个用户的隐私设置。例如,如果每个用户B和用户C允许在朋友圈当中共享搜索信息,或者如果每个用户B和用户C允许使用用户信息来调整朋友的语言模型,那么系统可以使用用户B和用户C的搜索来调节用户A的语言模型。
系统可以基于关系程度来确定调节量。较低的关系程度表示两个用户之间较近的关系,并且可以指示两个用户共享兴趣和搜索习惯的较高可能性。因此,当关系程度增加时,系统减少调节量。例如,如果增加是基于用户B执行的查询,那么系统可以以第一量为用户A增加用于词语序列的概率值。如果增加是基于用户D执行的查询,那么系统可以以第二量为用户A增加用于词语序列的概率值。第一量可以大于第二量。
系统可以使用在查询时间标识的语言模型调节规则404来定制基本语言模型,或者在查询时间之前存储定制的语言模型。当系统接收来自用户A的语音输入时,系统可以基于用户A的标识符来标识用于用户A的语言模型调节规则404,并使用语言模型调节规则404来定制基本语言模型。替代性或附加性地,系统可以使用专用于用户A的预先存储的定制语言模型来执行语音识别。
图5A和图5B是图示动态语言模型的示例实施方式的框图。实施动态语言模型技术的系统可以采用参照图5A、图5B所述的实施方式,或者两者的组合。
图5A是图示系统创建与话音查询不同步(例如,在除了响应于接收的查询之外的某个时间)的定制语言模型502、504、506和508的示例实施方式的框图500。每个定制语言模型502、504、506和508包括基本语言模型中的词语序列的一部分或全部,并且与用于应用定制语言模型的一个或多个准则相关联。基于应用准则确定定制语言模型中与各个词语序列相关联的概率值。每个应用准则可以指定位置、时间、气象或其他因素(例如,通过年龄、性别、收入水平或者普通人群的购买习惯限定的用户分段)。例如,动态语言模型506与应用准则相关联,所述应用准则在指定的气象条件下指定在指定的时间窗口中的指定位置应用动态语言模型506。系统可以周期性地或者通过触发事件建立或者更新定制语言模型502、504、506和508。触发事件例如可包括已经实施的划分用户的新方式。
在查询时间,系统接收语音输入并获得语音输入的场境。例如,系统可以确定用户的位置、语音输入的时间,并基于位置和时间检索来自气象服务的气象信息。当用户登录系统时,系统可以使用与由用户提供的用户标识符相关联的简档标识用户所属的用户分段。系统将场境提交给语言模型选择器510。语言模型选择器510是系统的组件,其被配置为将语音输入的场境与关联于定制语言模型502、504、506或508的应用准则匹配,并基于该匹配来标识动态语言模型。
例如,系统可以接收用户位置、查询时间以及用户位置处的查询时间气象。语言模型选择器510可以确定用户位置与关联于动态语言模型506的应用准则的可应用位置相交,查询时间在应用准则的可应用时间窗口中,并且用户位置处的查询时间气象与应用准则的可应用气象匹配。因此,语言模型选择器510选择定制语言模型506。然后系统执行语音识别,以使用定制语言模型506将用户的语音输入转换为文本搜索查询。例如,如果系统在不同位置或者在不同时间接收相同的语音输入,则系统可以应用不同的语言模型(例如,语言模型504)。
图5B是图示系统动态地调节语言模型522的示例实施方式的框图520。语言模型522可以是基本语言模型或者定制语言模型。
系统包括语言模型修改器524。语言模型修改器是用户设备或者服务器设备的组件,其被配置为应用一个或多个规则526来调节语言模型522。语言模型修改器524接收来自一个或多个用户的输入,包括个性化信息、位置信息、日期/时间信息、气象信息、近期新闻/当前事务信息或者查询流。语言模型修改器524基于输入将规则526应用于语言模型522。在应用规则526之后,语言模型522可以变为定制语言模型。
例如,规则526中的一个可以指定,当词在指定时间周期(例如,将规则526应用于语言模型522之前的最后3天)中并且以满足阈值的频率出现时,系统增加包括该词的词语序列的概率值。另一个规则可以指定,如果用户选择允许系统收集信息,则用户可以允许系统分析用户在过去提交的查询,并确定与用户相关联的搜索模式。
在一些实施方式中,语言模型修改器524可以在查询时间调节语言模型522。在一些实施方式中,语言模型修改器524可以对于特定用户或者响应于特定的当前事件,创建定制语言模型,并将定制语言模型存储于用户设备或者服务器设备上。
图6是用于使用定制语言模型的示例方法600的流程图。为了方便起见,例如将针对如上所述执行方法600的系统来描述方法。系统接收(602)用于语音识别的基本语言模型。基本语言模型包括多个词语序列,每个词语序列与概率值相关联。词语序列可以表示为文本串、压缩文本串、对象或者索引。基本语言模型可以根据用户的集合的匿名查询日志来生成。
系统接收(604)话音搜索查询。话音搜索查询与查询场境相关联。查询场境可包括从其接收话音搜索查询的用户设备的地理位置。地理位置可以是点或地理区域。点或地理区域例如通过纬度、经度或海拔坐标的一个或多个集合来限定。查询场境例如可以包括查询的时间戳,或者提供话音搜索查询的用户的用户标识符。
系统确定(605)当查询场境满足与定制语言模型相关联的一个或多个准则时要使用定制语言模型。如果查询场境不满足任何准则,那么系统可以使用基本语言模型,以将话音搜索查询转换为文本搜索查询。
系统获得(606)定制语言模型。定制语言模型包括与经过调节的概率值相对应的一个或多个词语序列。经过调节的概率值是当查询场境与一个或多个调节准则匹配时基本概率值被根据查询场境来调节的。获得定制语言模型可包括以下至少其中一个:(1)基于查询场境从一个或多个预先存储的定制语言模型选择定制语言模型;或者(2)使用一个或多个语言调节规则,基于接收的查询场境,调节查询时间的基本语言模型,以生成定制语言模型。定制语言模型可以如同以上针对图1至图5所述来获得。
在一些实施方式中,查询场境包括从其接收话音搜索查询的用户设备的地理位置。系统可以标识与地理位置相关的一个或多个词语序列。词语序列的经过调节的概率值包括基于词语序列与地理位置之间的关系程度调节的概率值。例如,词语序列可包括位于用户设备的地理位置处或者附近的特征(例如,企业、公园或街道)的名称。在查询场境中基于特征与地理位置之间的距离来确定关系程度。地理位置可以是通过纬度、经度或海拔坐标的一个或多个集合限定的地理区域。
在一些实施方式中,词语序列包括以超过阈值的频率从地理位置接收的过去查询的词。基于频率确定关系程度。例如,如果系统接收在特定位置包括词“气候最好由政府试验”的查询足够数目或百分比,那么系统可以在与特定位置相关联的定制语言模型中增加用于词语序列“气候最好由政府试验”的概率值。在一些实施方式中,数目或百分比越高,增加概率值就越高。
在一些实施方式中,查询场境包括用于与话音搜索查询相关联的用户提供的标识符(例如,用户名或用户标识符)。系统确定与用户提供的标识符相关联的社团。社团可以是存储的用户的社交网络。社团可包括在社交网络中与用户提供的标识符相关的一个或多个用户标识符。系统使用存储的与社团中的用户标识符相关联的查询日志来确定词语序列的出现频率,并基于出现频率来调节基本概率值。例如,系统可以确定在有关于教养的团体中高频出现包括搜索词“游泳比赛”的搜索查询,或者是话音,或者是文本。系统可以创建定制语言模型,其中用于词语序列“游泳比赛”的概率值高于基本语言模型中的概率值,并将定制语言模型应用于通过教养团体(parenting group)中的用户输入的语音输入。系统可以附加性或替代性地基于社团中的关系程度来调节基本概率值。
在一些实施方式中,查询场境包括话音搜索查询的时间戳。获得定制语言模型包括标识一个或多个电子文档(例如,新闻文章)。根据查询日志,电子文档个别地或者作为集合与搜索查询的数目相关联。如果通过搜索引擎将电子文档指定为查询的搜索结果,或者通过用户从搜索结果的列表将电子文档选择为目的地,就可以将它与查询相关联。系统标识分别包括一个或多个词语序列的电子文档。如果根据时间戳,关联的搜索查询在指定的时间窗口(例如,一天或一周)中出现,那么系统可以在定制语言模型中增加与一个或多个词语序列相关联的概率值。例如,如果对于一时间周期,许多教育相关的新闻文章包括词语序列“虎妈”,那么在基本语言模型中可能与低概率值相关联的词语序列“虎妈”在定制语言模型中可以与高概率值相关联。
系统基于定制语言模型中对应的经过调节的概率值,将话音搜索查询转换为(608)包括词语序列的文本搜索查询。系统可以提供(610)文本搜索查询的一个或多个搜索结果,作为对话音搜索查询的响应,用于在显示设备上显示。
本主题的实施例以及本说明书中所描述的操作可以在数字电子电路中实施,或者在计算机软件、固件或硬件中实施,包括本说明书中公开的结构以及它们的结构性等同物,或者它们的一个或多个的组合。本说明书中所描述的本主题的实施例可以实施为一个或多个计算机程序,即,在计算机存储介质上编码、用于通过数据处理装置执行,或者控制数据处理装置的操作的计算机程序指令的一个或多个模块。替代性或附加性地,可以在人工生成的传播信号(例如,机器生成的电学、光学或电磁学信号)上将程序指令编码,生成传播信号从而将信息编码,用于传输给合适的接收器装置,用于由数据处理装置执行。计算机存储介质可以是或者包括在计算机可读存储设备、计算机可读存储衬底、随机或串行访问存储器阵列或设备、或者它们的一个或多个的组合。此外,虽然计算机存储介质并非传播信号,但是计算机存储介质可以是在人工生成的传播信号中编码的计算机程序指令的源或目的地。计算机存储介质也可以是或者包括在一个或多个单独的物理组件或介质中,例如,多个CD、磁盘或其他存储设备。
本说明书中所描述的操作可以实施为通过数据处理装置对于一个或多个计算机可读存储设备上存储的数据或者从其他源接收的数据执行的操作。
术语“数据处理装置”涵盖用于处理数据的所有种类的装置、设备和机器,作为示例,包括可编程处理单元、计算机、芯片上系统、个人计算机系统、台式计算机、膝上型电脑、笔记本电脑、网络本电脑、主机计算机系统、手持计算机、工作站、网络计算机、应用服务器、存储设备、消费电子设备(诸如相机、录像机、机顶盒、移动设备、视频游戏控制台、手持视频游戏设备)、外设(诸如交换机、调制解调器、路由器),或者通常是任何类型的计算设备或电子设备,或者是前述的多个或组合。所述装置可包括专用逻辑电路,例如FPGA(现场可编程门阵列)或者ASIC(专用集成电路)。除了硬件之外,所述装置也可包括创建用于所讨论的计算机程序的执行环境的代码,例如,构成处理器固件、协议栈、数据库管理系统、操作系统、跨平台运行时间环境、虚拟机、或者它们的一个或多个的组合的代码。装置和执行环境可以实现各种不同的计算模型基础结构,诸如web服务、分布式计算和网格计算基础结构。
计算机程序(也称为程序、软件、软件应用、脚本或代码)可以按照任何形式的编程语言来编写,包括编译或解释语言、声明性或程序性语言,并且它可以按照任何形式部署,包括作为独立程序,或者作为模块、组件、子例程、对象或适合于在计算环境中使用的其他单元。计算机程序可以但是不一定对应于文件系统中的文件。可将程序存储在保存其他程序或数据的一部分文件中(例如,存储在标记语言文档中的一个或多个脚本)、存储在专用于所讨论的程序的单个文件中、或者存储在多个协同的文件中(例如,存储一个或多个模块、子程序或部分代码的文件)。可将计算机程序部署为在一个计算机上执行,或者在位于一个地点或分布于多个地点并通过通信网络互连的多个计算机上执行。
本说明书所述的处理和逻辑流程可通过执行一个或多个计算机程序的一个或多个可编程处理器来执行,以通过在输入数据上操作并生成输出来执行动作。处理和逻辑流程也可通过专用逻辑电路进行,并且装置也可实施为专用逻辑电路,例如FPGA(现场可编程门阵列)或者ASIC(专用集成电路)。
作为示例,适合于执行计算机程序的处理单元包括通用和专用微处理器两者,以及任何种类的数字计算机的任何一个或多个处理单元。一般而言,处理单元将接收来自只读存储器或随机访问存储器或者两者的指令和数据。计算机的必要元件是用于根据指令执行动作的处理器以及用于存储指令和数据的一个或多个存储器设备。一般而言,计算机也可包括用于存储数据的一个或多个大容量存储设备(例如,磁盘、磁光盘、或光盘),或者可操作地耦合到一个或多个大容量存储设备,以往来接收或传送数据或者皆可。但是,计算机不一定具有这样的设备。此外,可将计算机嵌入另一个设备中,例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏控制台、全球定位系统(GPS)接收器、网络路由设备、或者便携存储设备(例如,通用串行总线(USB)闪存驱动器),仅举几例。适合于存储计算机程序指令和数据的设备包括所有形式的非易失性存储器、介质和存储器设备,作为示例,包括半导体存储器设备,例如EPROM、EEPROM以及闪存存储器设备;磁盘,例如内部硬盘或者可拆卸盘;磁光盘;以及CD ROM和DVD-ROM盘。处理单元和存储器可以通过专用逻辑电路来补充,或者合并在其中。
为了提供与用户的互动,本说明书中所述本主题的实施例可以在具有显示设备(例如,CRT(阴极射线管)或LCD(液晶显示器)监视器,用于向用户显示信息)以及键盘和点击设备(例如,鼠标或轨迹球,用户可以由其向计算机提供输入)的计算机上实施。也可将其他种类的设备用于提供与用户的互动;例如,提供给用户的反馈可以是任何形式的传感器反馈,例如视觉反馈、听觉反馈或触觉反馈;并且可以按照任何形式接收来自用户的输入,包括声学、语言或触觉输入。此外,计算机可通过与用户使用的设备往来发送文档和接收文档,与用户互动;例如,通过响应于从web浏览器接收的请求,向用户的客户端设备上的web浏览器发送网页。
本说明书中所述本主题的实施例可以在包括后端组件(例如,作为数据服务器)的计算系统、或者包括中间件组件(例如,应用服务器)的计算系统、或者包括前端组件(例如,具有图形用户接口的客户端计算机或者用户可以由其与本说明书中所述本主题的实施方式互动的网络浏览器)或路由设备(例如,网络路由器)的计算系统中实施,或者在一个或多个这样的后端、中间件或前端组件的任何组合中实施。系统的组件可以通过数字数据通信的任何形式或介质(例如,通信网络)来互连。通信网络的示例包括局域网(“LAN”)和广域网(“WAN”)、互连网络(例如互联网)以及对等网络(例如,自组织对等网络)。
计算系统可包括客户端和服务器。客户端和服务器通常相互远离且典型地通过通信网络互动。客户端和服务器的关系借助于各个计算机上执行且相互具有客户端-服务器关系的计算机程序而发生。在一些实施例中,服务器(例如,为了向与客户端设备交互的用户显示数据以及从用户接收用户输入的目的)向客户端设备传输数据(例如,HTML网页)。在客户端设备生成的数据(例如,用户互动的结果)可以在服务器处从客户端设备接收。
一个或多个计算机的系统可以被配置为借助于将在操作中使得系统执行动作的软件、固件、硬件或者它们的组合安装在系统上而执行特定动作。一个或多个计算机程序可以被配置为借助于包括指令而执行特定动作,当通过数据处理装置执行时,指令使得所述装置执行动作。
电子文档(为了简单起见,简称为文档)可以对应于文件A,但是并非需要。可以在专用于讨论中的文档的单个文件中,或者在多个协作的文件中,将文档存储在保存其他文档的一部分文件中。
虽然本说明书包含具体实施方式的很多细节,但是这些不应被视为对于任何发明或者任何权利要求所主张的范围的限制,而是专用于特定发明的特定实施例的特征的描述。在单独实施例的背景下,在本说明书中所述的某些特征也可以在单个实施例中组合实施。相反,在单个实施例的背景下所述的各个特征也可以独立地在多个实施例中实施,或者按照任何适合的子组合实施。此外,虽然上面将特征描述为在某些组合中起作用,甚至一开始就这样主张,但是在一些情况下可将来自所主张组合的一个或多个特征从组合中删除,并且所主张的组合可以指向子组合或者子组合的变型。
类似地,虽然在附图中按照特定顺序描述操作,但是不应将此理解为要求按照所示特定顺序或者按照连续的顺序执行这样的操作,或者要求执行全部所示操作,以得到期望的结果。在某些情况下,多任务和平行处理可以是有利的。此外,不应将上述实施例中各种系统组件的分离理解为在所有实施例中都要求这样的分离,而是应当理解为所描述的程序组件和系统可以一般性地一起集成在单个软件产品中或者打包在多个软件产品中。
因此,已经描述了本主题的特定实施例。其他实施例也落入所附权利要求书的范围中。在一些情况下,可以按照不同的顺序执行权利要求中引用的动作,且仍然得到期望的结果。此外,附图中所示处理不一定要求所示的特定顺序或连续顺序,以得到期望的结果。在某些实施方式中,多任务和平行处理可以是有利的。因此,其他实施例在所附权利要求书的范围内。
Claims (18)
1.一种方法,包括:
接收用于语音识别的基本语言模型,所述基本语言模型包括具有基本概率值的第一词语序列;
接收话音搜索查询,所述话音搜索查询与查询场境相关联;
当所述查询场境满足与定制语言模型相关联的一个或多个准则时,确定要使用所述定制语言模型;
获得所述定制语言模型,所述定制语言模型包括具有经过调节的概率值的所述第一词语序列,所述经过调节的概率值是所述基本概率值被根据所述查询场境来调节的;以及
基于一个或多个概率,将所述话音搜索查询转换为文本搜索查询,所述一个或多个概率的每一个对应于一个或多个词语序列的群组中的词语序列,所述一个或多个词语序列的群组包括所述具有经过调节的概率值的第一词语序列。
2.根据权利要求1所述的方法,其中获得所述定制语言模型包括:
基于所述查询场境从一个或多个定制语言模型中选择所述定制语言模型。
3.根据权利要求1所述的方法,其中获得所述定制语言模型包括:
使用一个或多个语言调节规则,基于接收到的查询场境来调节所述基本语言模型。
4.根据权利要求1所述的方法,其中所述查询场境包括用户设备的地理位置,其中所述话音搜索查询是从所述用户设备接收的。
5.根据权利要求4所述的方法,包括:
确定所述词语序列与所述地理位置相关,其中所述经过调节的概率值包括所述基本概率值被基于所述词语序列与所述地理位置之间的关系程度来调节。
6.根据权利要求5所述的方法,其中:
所述词语序列包括位于所述地理位置处或者接近所述地理位置的特征的名称;以及
所述关系程度是在所述查询场境中基于所述特征与所述地理位置之间的距离来确定的。
7.根据权利要求5所述的方法,其中:
所述词语序列包括以超过阈值的频率从所述地理位置接收到的过去查询的词;以及
所述关系程度是基于所述频率来确定的。
8.根据权利要求4所述的方法,其中所述地理位置是通过一组或多组经纬度坐标来限定的地理区域。
9.根据权利要求1所述的方法,其中所述查询场境包括用于与所述话音搜索查询相关联的用户提供的标识符。
10.根据权利要求9所述的方法,包括:
确定与所述用户提供的标识符相关联的社团,所述社团包括与所述用户提供的标识符有关的一个或多个用户标识符;
使用与所述社团中的所述用户标识符相关联的存储的查询日志,确定所述词语序列的出现频率;以及
基于所述出现频率调节所述基本概率值。
11.根据权利要求10所述的方法,其中调节所述基本概率值还基于每个所述用户标识符与所述用户提供的标识符之间在所述社团中的关系程度。
12.根据权利要求1所述的方法,其中所述查询场境包括所述话音搜索查询的时间戳。
13.根据权利要求12所述的方法,其中获得所述定制语言模型包括:
标识一个或多个电子文档,所述一个或多个电子文档根据查询日志与搜索查询的数目相关联,所述搜索查询的数目满足阈值数目,所述搜索查询在所述时间戳的指定时间窗口中出现,所述一个或多个电子文档的每一个包括所述词语序列;以及
基于所述搜索查询的数目调节所述基本概率值。
14.根据权利要求13所述的方法,其中所述一个或多个电子文档的每一个是新闻文章。
15.根据权利要求1所述的方法,包括:
在显示设备上提供所述文本搜索查询的一个或多个搜索结果以供显示,作为对于所述话音搜索查询的响应。
16.根据权利要求1所述的方法,其中将所述话音搜索查询转换为文本搜索查询包括:基于所述定制语言模型中对应的经过调节的概率值,将所述话音搜索查询转换为包括所述第一词语序列的文本搜索查询。
17.一种系统,包括:
一个或多个计算机以及存储指令的一个或多个存储设备,当由所述一个或多个计算机执行时,所述指令能操作为使得所述一个或多个计算机执行以下操作,包括:
接收用于语音识别的基本语言模型,所述基本语言模型包括具有基本概率值的第一词语序列;
接收话音搜索查询,所述话音搜索查询与查询场境相关联;
当所述查询场境满足与定制语言模型相关联的一个或多个准则时,确定要使用所述定制语言模型;
获得所述定制语言模型,所述定制语言模型包括具有经过调节的概率值的所述第一词语序列,所述经过调节的概率值是所述基本概率值被根据所述查询场境来调节的;以及
基于一个或多个概率,将所述话音搜索查询转换为文本搜索查询,所述一个或多个概率的每一个对应于一个或多个词语序列的群组中的词语序列,所述一个或多个词语序列的群组包括所述具有经过调节的概率值的第一词语序列。
18.一种编码有计算机程序的计算机存储介质,所述程序包括指令,当由数据处理装置执行时,所述指令能操作为使得所述数据处理装置执行以下操作,包括:
接收用于语音识别的基本语言模型,所述基本语言模型包括具有基本概率值的第一词语序列;
接收话音搜索查询,所述话音搜索查询与查询场境相关联;
当所述查询场境满足与定制语言模型相关联的一个或多个准则时,确定要使用所述定制语言模型;
获得所述定制语言模型,所述定制语言模型包括具有经过调节的概率值的第一词语序列,所述经过调节的概率值是所述基本概率值被根据所述查询场境来调节的;以及
基于一个或多个概率,将所述话音搜索查询转换为文本搜索查询,所述一个或多个概率的每一个对应于一个或多个词语序列的群组中的词语序列,所述一个或多个词语序列的群组包括所述具有经过调节的概率值的第一词语序列。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711049271.6A CN107845382A (zh) | 2012-06-21 | 2013-06-18 | 动态语言模型 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261662889P | 2012-06-21 | 2012-06-21 | |
US61/662,889 | 2012-06-21 | ||
US13/802,414 US9043205B2 (en) | 2012-06-21 | 2013-03-13 | Dynamic language model |
US13/802,414 | 2013-03-13 | ||
PCT/US2013/046381 WO2013192218A2 (en) | 2012-06-21 | 2013-06-18 | Dynamic language model |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711049271.6A Division CN107845382A (zh) | 2012-06-21 | 2013-06-18 | 动态语言模型 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104508739A true CN104508739A (zh) | 2015-04-08 |
CN104508739B CN104508739B (zh) | 2017-11-07 |
Family
ID=48703930
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711049271.6A Pending CN107845382A (zh) | 2012-06-21 | 2013-06-18 | 动态语言模型 |
CN201380038870.1A Active CN104508739B (zh) | 2012-06-21 | 2013-06-18 | 动态语言模型 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711049271.6A Pending CN107845382A (zh) | 2012-06-21 | 2013-06-18 | 动态语言模型 |
Country Status (6)
Country | Link |
---|---|
US (5) | US9043205B2 (zh) |
EP (2) | EP2864981B1 (zh) |
JP (1) | JP6254583B2 (zh) |
KR (2) | KR102137767B1 (zh) |
CN (2) | CN107845382A (zh) |
WO (1) | WO2013192218A2 (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654945A (zh) * | 2015-10-29 | 2016-06-08 | 乐视致新电子科技(天津)有限公司 | 一种语言模型的训练方法及装置、设备 |
CN105654955A (zh) * | 2016-03-18 | 2016-06-08 | 华为技术有限公司 | 语音识别方法及装置 |
CN105845133A (zh) * | 2016-03-30 | 2016-08-10 | 乐视控股(北京)有限公司 | 语音信号处理方法及装置 |
CN105869629A (zh) * | 2016-03-30 | 2016-08-17 | 乐视控股(北京)有限公司 | 语音识别方法及装置 |
CN105895103A (zh) * | 2015-12-03 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 一种语音识别方法及装置 |
CN106649825A (zh) * | 2016-12-29 | 2017-05-10 | 上海智臻智能网络科技股份有限公司 | 语音交互系统及其创建方法和装置 |
CN107430623A (zh) * | 2015-05-27 | 2017-12-01 | 谷歌公司 | 用于资源受限的离线设备的动态可更新的离线语法模型 |
CN108463849A (zh) * | 2016-03-16 | 2018-08-28 | 谷歌有限责任公司 | 确定语言模型的对话状态 |
WO2018223796A1 (zh) * | 2017-06-07 | 2018-12-13 | 腾讯科技(深圳)有限公司 | 语音识别方法、存储介质及语音识别设备 |
CN109243430A (zh) * | 2017-07-04 | 2019-01-18 | 北京搜狗科技发展有限公司 | 一种语音识别方法及装置 |
CN111819625A (zh) * | 2018-03-06 | 2020-10-23 | 三星电子株式会社 | 用于语言模型个性化的系统和方法 |
CN112581962A (zh) * | 2015-05-27 | 2021-03-30 | 谷歌有限责任公司 | 在支持语音的电子设备中对语音转文本模型的场境敏感动态更新 |
US11322141B2 (en) | 2017-08-17 | 2022-05-03 | Sony Corporation | Information processing device and information processing method |
Families Citing this family (88)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8484191B2 (en) | 2010-12-16 | 2013-07-09 | Yahoo! Inc. | On-line social search |
US8352245B1 (en) | 2010-12-30 | 2013-01-08 | Google Inc. | Adjusting language models |
US9129606B2 (en) * | 2011-09-23 | 2015-09-08 | Microsoft Technology Licensing, Llc | User query history expansion for improving language model adaptation |
US9747895B1 (en) * | 2012-07-10 | 2017-08-29 | Google Inc. | Building language models for a user in a social network from linguistic information |
US8983836B2 (en) * | 2012-09-26 | 2015-03-17 | International Business Machines Corporation | Captioning using socially derived acoustic profiles |
US9601111B2 (en) * | 2012-11-13 | 2017-03-21 | GM Global Technology Operations LLC | Methods and systems for adapting speech systems |
US9542936B2 (en) | 2012-12-29 | 2017-01-10 | Genesys Telecommunications Laboratories, Inc. | Fast out-of-vocabulary search in automatic speech recognition systems |
US10585568B1 (en) | 2013-02-22 | 2020-03-10 | The Directv Group, Inc. | Method and system of bookmarking content in a mobile device |
US9786269B2 (en) * | 2013-03-14 | 2017-10-10 | Google Inc. | Language modeling of complete language sequences |
US9953630B1 (en) * | 2013-05-31 | 2018-04-24 | Amazon Technologies, Inc. | Language recognition for device settings |
US20150081294A1 (en) * | 2013-09-19 | 2015-03-19 | Maluuba Inc. | Speech recognition for user specific language |
KR102274317B1 (ko) * | 2013-10-08 | 2021-07-07 | 삼성전자주식회사 | 디바이스 정보에 기초하여 음성 인식을 수행하는 방법 및 장치 |
WO2015091223A1 (en) * | 2013-12-17 | 2015-06-25 | Koninklijke Philips N.V. | System and method for assessing the cognitive style of a person |
US9842592B2 (en) | 2014-02-12 | 2017-12-12 | Google Inc. | Language models using non-linguistic context |
US9412365B2 (en) | 2014-03-24 | 2016-08-09 | Google Inc. | Enhanced maximum entropy models |
DE112015001468T5 (de) * | 2014-03-27 | 2016-12-15 | Sony Corporation | Elektronische Vorrichtung und Verfahren zum Identifizieren von Eingabebefehlen eines Benutzers |
US10140981B1 (en) * | 2014-06-10 | 2018-11-27 | Amazon Technologies, Inc. | Dynamic arc weights in speech recognition models |
KR102261552B1 (ko) | 2014-06-30 | 2021-06-07 | 삼성전자주식회사 | 음성 명령어 제공 방법 및 이를 지원하는 전자 장치 |
US9881023B2 (en) * | 2014-07-22 | 2018-01-30 | Microsoft Technology Licensing, Llc | Retrieving/storing images associated with events |
EP3198593A4 (en) * | 2014-08-01 | 2019-02-20 | Maluuba Inc. | VOICE RECOGNITION USING TEMPLATES ASSOCIATED WITH A GEOGRAPHICAL LOCATION |
US10482184B2 (en) | 2015-03-08 | 2019-11-19 | Google Llc | Context-based natural language processing |
US10134394B2 (en) | 2015-03-20 | 2018-11-20 | Google Llc | Speech recognition using log-linear model |
US9965155B2 (en) | 2015-03-27 | 2018-05-08 | Google Llc | Dynamically merging multiple screens into one view port |
US9460713B1 (en) | 2015-03-30 | 2016-10-04 | Google Inc. | Language model biasing modulation |
US10229674B2 (en) * | 2015-05-15 | 2019-03-12 | Microsoft Technology Licensing, Llc | Cross-language speech recognition and translation |
CN106205608A (zh) * | 2015-05-29 | 2016-12-07 | 微软技术许可有限责任公司 | 利用知识图的用于语音识别的语言建模 |
US9905224B2 (en) * | 2015-06-11 | 2018-02-27 | Nice Ltd. | System and method for automatic language model generation |
US9691380B2 (en) | 2015-06-15 | 2017-06-27 | Google Inc. | Negative n-gram biasing |
KR102413693B1 (ko) * | 2015-07-23 | 2022-06-27 | 삼성전자주식회사 | 음성 인식 장치 및 방법, 그를 위한 모델 생성 장치 및 방법 |
KR102386863B1 (ko) | 2015-09-09 | 2022-04-13 | 삼성전자주식회사 | 사용자 기반 언어 모델 생성 장치, 방법 및 음성 인식 장치 |
CN105260396B (zh) * | 2015-09-16 | 2019-09-03 | 百度在线网络技术(北京)有限公司 | 字词检索方法和装置 |
KR102420450B1 (ko) | 2015-09-23 | 2022-07-14 | 삼성전자주식회사 | 음성인식장치, 음성인식방법 및 컴퓨터 판독가능 기록매체 |
US11868354B2 (en) * | 2015-09-23 | 2024-01-09 | Motorola Solutions, Inc. | Apparatus, system, and method for responding to a user-initiated query with a context-based response |
US10049666B2 (en) | 2016-01-06 | 2018-08-14 | Google Llc | Voice recognition system |
US10026398B2 (en) * | 2016-07-08 | 2018-07-17 | Google Llc | Follow-up voice query prediction |
DE102016114265A1 (de) * | 2016-08-02 | 2018-02-08 | Claas Selbstfahrende Erntemaschinen Gmbh | Verfahren zum zumindest teilweise maschinellen Transferieren einer in einer Quellsprache abgefassten Wortfolge in eine Wortfolge einer Zielsprache |
US10832664B2 (en) | 2016-08-19 | 2020-11-10 | Google Llc | Automated speech recognition using language models that selectively use domain-specific model components |
US10565255B2 (en) * | 2016-08-24 | 2020-02-18 | Baidu Usa Llc | Method and system for selecting images based on user contextual information in response to search queries |
JP6440660B2 (ja) * | 2016-09-12 | 2018-12-19 | ヤフー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10529324B1 (en) * | 2016-12-27 | 2020-01-07 | Cognistic, LLC | Geographical based voice transcription |
US10741174B2 (en) * | 2017-01-24 | 2020-08-11 | Lenovo (Singapore) Pte. Ltd. | Automatic language identification for speech |
KR20180087942A (ko) * | 2017-01-26 | 2018-08-03 | 삼성전자주식회사 | 음성 인식 방법 및 장치 |
US10311860B2 (en) | 2017-02-14 | 2019-06-04 | Google Llc | Language model biasing system |
US10535342B2 (en) * | 2017-04-10 | 2020-01-14 | Microsoft Technology Licensing, Llc | Automatic learning of language models |
US10670415B2 (en) * | 2017-07-06 | 2020-06-02 | Here Global B.V. | Method and apparatus for providing mobility-based language model adaptation for navigational speech interfaces |
US11024316B1 (en) | 2017-07-09 | 2021-06-01 | Otter.ai, Inc. | Systems and methods for capturing, processing, and rendering one or more context-aware moment-associating elements |
US11100943B1 (en) | 2017-07-09 | 2021-08-24 | Otter.ai, Inc. | Systems and methods for processing and presenting conversations |
US10978073B1 (en) | 2017-07-09 | 2021-04-13 | Otter.ai, Inc. | Systems and methods for processing and presenting conversations |
US10847148B2 (en) | 2017-07-14 | 2020-11-24 | International Business Machines Corporation | Dynamic personalized multi-turn interaction of cognitive models |
US9998334B1 (en) * | 2017-08-17 | 2018-06-12 | Chengfu Yu | Determining a communication language for internet of things devices |
KR102479026B1 (ko) * | 2017-09-27 | 2022-12-20 | 한국전자통신연구원 | MPEG IoMT 환경에서의 질의응답 시스템 및 방법 |
US10747817B2 (en) | 2017-09-29 | 2020-08-18 | Rovi Guides, Inc. | Recommending language models for search queries based on user profile |
US10769210B2 (en) | 2017-09-29 | 2020-09-08 | Rovi Guides, Inc. | Recommending results in multiple languages for search queries based on user profile |
US10468019B1 (en) * | 2017-10-27 | 2019-11-05 | Kadho, Inc. | System and method for automatic speech recognition using selection of speech models based on input characteristics |
US11188706B2 (en) * | 2018-01-18 | 2021-11-30 | Christopher Anthony Silva | System and method for regionalized resolution of a network path |
US10896672B2 (en) | 2018-04-16 | 2021-01-19 | Google Llc | Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface |
US10839793B2 (en) * | 2018-04-16 | 2020-11-17 | Google Llc | Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface |
US11715042B1 (en) | 2018-04-20 | 2023-08-01 | Meta Platforms Technologies, Llc | Interpretability of deep reinforcement learning models in assistant systems |
US11307880B2 (en) | 2018-04-20 | 2022-04-19 | Meta Platforms, Inc. | Assisting users with personalized and contextual communication content |
US11676220B2 (en) | 2018-04-20 | 2023-06-13 | Meta Platforms, Inc. | Processing multimodal user input for assistant systems |
US11886473B2 (en) | 2018-04-20 | 2024-01-30 | Meta Platforms, Inc. | Intent identification for agent matching by assistant systems |
US11010436B1 (en) | 2018-04-20 | 2021-05-18 | Facebook, Inc. | Engaging users by personalized composing-content recommendation |
CN110853647A (zh) * | 2018-07-27 | 2020-02-28 | Tcl集团股份有限公司 | 一种视频搜索方法、视频播放终端及存储介质 |
US10834591B2 (en) * | 2018-08-30 | 2020-11-10 | At&T Intellectual Property I, L.P. | System and method for policy-based extensible authentication protocol authentication |
US11094327B2 (en) * | 2018-09-28 | 2021-08-17 | Lenovo (Singapore) Pte. Ltd. | Audible input transcription |
US11423911B1 (en) * | 2018-10-17 | 2022-08-23 | Otter.ai, Inc. | Systems and methods for live broadcasting of context-aware transcription and/or other elements related to conversations and/or speeches |
US10720149B2 (en) | 2018-10-23 | 2020-07-21 | Capital One Services, Llc | Dynamic vocabulary customization in automated voice systems |
US10977441B2 (en) * | 2018-10-29 | 2021-04-13 | Amazon Technologies, Inc. | Normalizing addresses to facilitate sortation and routing solution using natural language text processing |
KR20200059703A (ko) | 2018-11-21 | 2020-05-29 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
JP7077487B2 (ja) * | 2018-11-30 | 2022-05-30 | グーグル エルエルシー | 音声処理 |
CN113168829A (zh) * | 2018-12-03 | 2021-07-23 | 谷歌有限责任公司 | 语音输入处理 |
CN110176230B (zh) * | 2018-12-11 | 2021-10-08 | 腾讯科技(深圳)有限公司 | 一种语音识别方法、装置、设备和存储介质 |
CN111326147B (zh) * | 2018-12-12 | 2023-11-17 | 北京嘀嘀无限科技发展有限公司 | 语音识别方法、装置、电子设备及存储介质 |
US10785171B2 (en) | 2019-02-07 | 2020-09-22 | Capital One Services, Llc | Chat bot utilizing metaphors to both relay and obtain information |
US11093720B2 (en) * | 2019-03-28 | 2021-08-17 | Lenovo (Singapore) Pte. Ltd. | Apparatus, method, and program product for converting multiple language variations |
CN110570843B (zh) * | 2019-06-28 | 2021-03-05 | 北京蓦然认知科技有限公司 | 一种用户语音识别方法和装置 |
KR20210016767A (ko) | 2019-08-05 | 2021-02-17 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
KR20210042523A (ko) | 2019-10-10 | 2021-04-20 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
US11276391B2 (en) | 2020-02-06 | 2022-03-15 | International Business Machines Corporation | Generation of matched corpus for language model training |
US11373657B2 (en) * | 2020-05-01 | 2022-06-28 | Raytheon Applied Signal Technology, Inc. | System and method for speaker identification in audio data |
JP7523785B2 (ja) | 2020-05-27 | 2024-07-29 | 株式会社AQUA System Labo | 廃水処理システム |
US11315545B2 (en) * | 2020-07-09 | 2022-04-26 | Raytheon Applied Signal Technology, Inc. | System and method for language identification in audio data |
US12020697B2 (en) | 2020-07-15 | 2024-06-25 | Raytheon Applied Signal Technology, Inc. | Systems and methods for fast filtering of audio keyword search |
KR20220048374A (ko) * | 2020-10-12 | 2022-04-19 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
US11676623B1 (en) | 2021-02-26 | 2023-06-13 | Otter.ai, Inc. | Systems and methods for automatic joining as a virtual meeting participant for transcription |
US12087286B2 (en) * | 2021-05-06 | 2024-09-10 | Microsoft Technology Licensing, Llc | Scalable entities and patterns mining pipeline to improve automatic speech recognition |
US20230359973A1 (en) * | 2022-05-04 | 2023-11-09 | Kyndryl, Inc. | Ad-hoc application development |
CN115238130B (zh) * | 2022-09-21 | 2022-12-06 | 之江实验室 | 基于模态定制协同注意力交互的时序语言定位方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5524169A (en) * | 1993-12-30 | 1996-06-04 | International Business Machines Incorporated | Method and system for location-specific speech recognition |
CN1352450A (zh) * | 2000-11-15 | 2002-06-05 | 中国科学院自动化研究所 | 中国人名、地名和单位名的语音识别方法 |
CN101329868A (zh) * | 2008-07-31 | 2008-12-24 | 林超 | 一种针对地区语言使用偏好的语音识别优化系统及其方法 |
CN101604520A (zh) * | 2009-07-16 | 2009-12-16 | 北京森博克智能科技有限公司 | 基于统计模型和语法规则的口语语音识别方法 |
CN101923854A (zh) * | 2010-08-31 | 2010-12-22 | 中国科学院计算技术研究所 | 一种交互式语音识别系统和方法 |
US20110060587A1 (en) * | 2007-03-07 | 2011-03-10 | Phillips Michael S | Command and control utilizing ancillary information in a mobile voice-to-speech application |
US20110093265A1 (en) * | 2009-10-16 | 2011-04-21 | Amanda Stent | Systems and Methods for Creating and Using Geo-Centric Language Models |
WO2011149837A1 (en) * | 2010-05-26 | 2011-12-01 | Google Inc. | Acoustic model adaptation using geographic information |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6418431B1 (en) | 1998-03-30 | 2002-07-09 | Microsoft Corporation | Information retrieval and speech recognition based on language models |
US6519562B1 (en) | 1999-02-25 | 2003-02-11 | Speechworks International, Inc. | Dynamic semantic control of a speech recognition system |
JP2002229584A (ja) * | 2001-01-31 | 2002-08-16 | Toyota Central Res & Dev Lab Inc | 音声認識方法、音声情報検索方法、プログラム、記録媒体、音声認識システム、音声認識用サーバ・コンピュータおよび音声情報検索用サーバ・コンピュータ |
JP2005141049A (ja) * | 2003-11-07 | 2005-06-02 | Nec Corp | パターン認識装置、音声認識装置、およびプログラム |
US7707039B2 (en) * | 2004-02-15 | 2010-04-27 | Exbiblio B.V. | Automatic modification of web pages |
WO2006059451A1 (ja) * | 2004-11-30 | 2006-06-08 | Matsushita Electric Industrial Co., Ltd. | 音声認識装置 |
KR100704508B1 (ko) * | 2004-12-14 | 2007-04-09 | 한국전자통신연구원 | N-gram 네트워크를 이용하는 한국어 연속음성인식의언어모델 적응장치 및 그 방법 |
US7953598B2 (en) * | 2007-12-17 | 2011-05-31 | Verizon Patent And Licensing Inc. | Grammar weighting voice recognition information |
US8255224B2 (en) * | 2008-03-07 | 2012-08-28 | Google Inc. | Voice recognition grammar selection based on context |
US20090249198A1 (en) * | 2008-04-01 | 2009-10-01 | Yahoo! Inc. | Techniques for input recogniton and completion |
US20110161072A1 (en) * | 2008-08-20 | 2011-06-30 | Nec Corporation | Language model creation apparatus, language model creation method, speech recognition apparatus, speech recognition method, and recording medium |
US8229743B2 (en) * | 2009-06-23 | 2012-07-24 | Autonomy Corporation Ltd. | Speech recognition system |
US8892443B2 (en) * | 2009-12-15 | 2014-11-18 | At&T Intellectual Property I, L.P. | System and method for combining geographic metadata in automatic speech recognition language and acoustic models |
EP2339576B1 (en) * | 2009-12-23 | 2019-08-07 | Google LLC | Multi-modal input on an electronic device |
US8341142B2 (en) * | 2010-09-08 | 2012-12-25 | Nuance Communications, Inc. | Methods and apparatus for searching the Internet |
CN102074231A (zh) * | 2010-12-30 | 2011-05-25 | 万音达有限公司 | 语音识别方法和语音识别系统 |
US8630860B1 (en) * | 2011-03-03 | 2014-01-14 | Nuance Communications, Inc. | Speaker and call characteristic sensitive open voice search |
US8635201B2 (en) * | 2011-07-14 | 2014-01-21 | Nuance Communications, Inc. | Methods and apparatus for employing a user's location in providing information to the user |
US9292603B2 (en) * | 2011-09-30 | 2016-03-22 | Nuance Communications, Inc. | Receipt and processing of user-specified queries |
-
2013
- 2013-03-13 US US13/802,414 patent/US9043205B2/en active Active
- 2013-06-18 WO PCT/US2013/046381 patent/WO2013192218A2/en active Application Filing
- 2013-06-18 EP EP13732788.8A patent/EP2864981B1/en active Active
- 2013-06-18 JP JP2015518519A patent/JP6254583B2/ja active Active
- 2013-06-18 EP EP20190046.1A patent/EP3754651B1/en active Active
- 2013-06-18 KR KR1020157001665A patent/KR102137767B1/ko active IP Right Grant
- 2013-06-18 KR KR1020207020870A patent/KR102271264B1/ko active IP Right Grant
- 2013-06-18 CN CN201711049271.6A patent/CN107845382A/zh active Pending
- 2013-06-18 CN CN201380038870.1A patent/CN104508739B/zh active Active
-
2015
- 2015-05-21 US US14/719,178 patent/US9251251B2/en not_active Expired - Fee Related
-
2016
- 2016-01-26 US US15/006,392 patent/US9418143B2/en active Active
- 2016-08-08 US US15/231,066 patent/US10140362B2/en active Active
-
2018
- 2018-11-26 US US16/200,531 patent/US10380160B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5524169A (en) * | 1993-12-30 | 1996-06-04 | International Business Machines Incorporated | Method and system for location-specific speech recognition |
CN1352450A (zh) * | 2000-11-15 | 2002-06-05 | 中国科学院自动化研究所 | 中国人名、地名和单位名的语音识别方法 |
US20110060587A1 (en) * | 2007-03-07 | 2011-03-10 | Phillips Michael S | Command and control utilizing ancillary information in a mobile voice-to-speech application |
CN101329868A (zh) * | 2008-07-31 | 2008-12-24 | 林超 | 一种针对地区语言使用偏好的语音识别优化系统及其方法 |
CN101604520A (zh) * | 2009-07-16 | 2009-12-16 | 北京森博克智能科技有限公司 | 基于统计模型和语法规则的口语语音识别方法 |
US20110093265A1 (en) * | 2009-10-16 | 2011-04-21 | Amanda Stent | Systems and Methods for Creating and Using Geo-Centric Language Models |
WO2011149837A1 (en) * | 2010-05-26 | 2011-12-01 | Google Inc. | Acoustic model adaptation using geographic information |
CN101923854A (zh) * | 2010-08-31 | 2010-12-22 | 中国科学院计算技术研究所 | 一种交互式语音识别系统和方法 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107430623A (zh) * | 2015-05-27 | 2017-12-01 | 谷歌公司 | 用于资源受限的离线设备的动态可更新的离线语法模型 |
US10552489B2 (en) | 2015-05-27 | 2020-02-04 | Google Llc | Dynamically updatable offline grammar model for resource-constrained offline device |
CN112581962B (zh) * | 2015-05-27 | 2024-04-05 | 谷歌有限责任公司 | 在支持语音的电子设备中对语音转文本模型的场境敏感动态更新 |
CN112581962A (zh) * | 2015-05-27 | 2021-03-30 | 谷歌有限责任公司 | 在支持语音的电子设备中对语音转文本模型的场境敏感动态更新 |
US20180157673A1 (en) | 2015-05-27 | 2018-06-07 | Google Llc | Dynamically updatable offline grammar model for resource-constrained offline device |
CN105654945B (zh) * | 2015-10-29 | 2020-03-06 | 乐融致新电子科技(天津)有限公司 | 一种语言模型的训练方法及装置、设备 |
CN105654945A (zh) * | 2015-10-29 | 2016-06-08 | 乐视致新电子科技(天津)有限公司 | 一种语言模型的训练方法及装置、设备 |
CN105895103A (zh) * | 2015-12-03 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 一种语音识别方法及装置 |
CN105895103B (zh) * | 2015-12-03 | 2020-01-17 | 乐融致新电子科技(天津)有限公司 | 一种语音识别方法及装置 |
CN108463849A (zh) * | 2016-03-16 | 2018-08-28 | 谷歌有限责任公司 | 确定语言模型的对话状态 |
CN108463849B (zh) * | 2016-03-16 | 2022-05-03 | 谷歌有限责任公司 | 一种计算机实现的方法和计算系统 |
CN105654955B (zh) * | 2016-03-18 | 2019-11-12 | 华为技术有限公司 | 语音识别方法及装置 |
CN105654955A (zh) * | 2016-03-18 | 2016-06-08 | 华为技术有限公司 | 语音识别方法及装置 |
WO2017166650A1 (zh) * | 2016-03-30 | 2017-10-05 | 乐视控股(北京)有限公司 | 语音识别方法及装置 |
CN105869629A (zh) * | 2016-03-30 | 2016-08-17 | 乐视控股(北京)有限公司 | 语音识别方法及装置 |
CN105845133A (zh) * | 2016-03-30 | 2016-08-10 | 乐视控股(北京)有限公司 | 语音信号处理方法及装置 |
CN106649825A (zh) * | 2016-12-29 | 2017-05-10 | 上海智臻智能网络科技股份有限公司 | 语音交互系统及其创建方法和装置 |
WO2018223796A1 (zh) * | 2017-06-07 | 2018-12-13 | 腾讯科技(深圳)有限公司 | 语音识别方法、存储介质及语音识别设备 |
CN109243430A (zh) * | 2017-07-04 | 2019-01-18 | 北京搜狗科技发展有限公司 | 一种语音识别方法及装置 |
US11322141B2 (en) | 2017-08-17 | 2022-05-03 | Sony Corporation | Information processing device and information processing method |
CN111819625A (zh) * | 2018-03-06 | 2020-10-23 | 三星电子株式会社 | 用于语言模型个性化的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
US20190138539A1 (en) | 2019-05-09 |
US9043205B2 (en) | 2015-05-26 |
WO2013192218A2 (en) | 2013-12-27 |
US20150254334A1 (en) | 2015-09-10 |
US20130346077A1 (en) | 2013-12-26 |
US10140362B2 (en) | 2018-11-27 |
US9418143B2 (en) | 2016-08-16 |
US20160342682A1 (en) | 2016-11-24 |
JP2015526797A (ja) | 2015-09-10 |
CN107845382A (zh) | 2018-03-27 |
US20160140218A1 (en) | 2016-05-19 |
KR102137767B1 (ko) | 2020-07-24 |
EP3754651A1 (en) | 2020-12-23 |
US9251251B2 (en) | 2016-02-02 |
EP3754651B1 (en) | 2024-05-22 |
US10380160B2 (en) | 2019-08-13 |
EP2864981B1 (en) | 2020-08-26 |
EP2864981A2 (en) | 2015-04-29 |
CN104508739B (zh) | 2017-11-07 |
JP6254583B2 (ja) | 2017-12-27 |
KR20150031309A (ko) | 2015-03-23 |
KR20200091486A (ko) | 2020-07-30 |
WO2013192218A3 (en) | 2014-08-07 |
KR102271264B1 (ko) | 2021-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104508739A (zh) | 动态语言模型 | |
JP6689515B2 (ja) | ユーザ地理的ロケーションのタイプを識別するための方法および装置 | |
US9824156B1 (en) | Targeting of digital content to geographic regions | |
US9680959B2 (en) | Recommending content based on intersecting user interest profiles | |
CN105051732B (zh) | 本地应用内容的排名 | |
US20140222564A1 (en) | Geo-located social connectivity relating to events and commerce | |
US20190102397A1 (en) | Methods and systems for client side search ranking improvements | |
CN104254865A (zh) | 凭经验的专家确定和问题路由系统和方法 | |
CN106133727A (zh) | 通过知识库促进的用户兴趣 | |
WO2016042357A1 (en) | Predicting human movement behaviors using location services model | |
CN106605418A (zh) | 使用基于位置的服务的移动客户端的电力管理 | |
CN107808004A (zh) | 模型训练方法和系统、服务器、存储介质 | |
CN103631954A (zh) | 个性化推荐方法及装置 | |
CN101192235A (zh) | 一种基于用户特征推送广告的方法、系统及设备 | |
CN103959745A (zh) | 监视应用程序资源消耗 | |
US20100250366A1 (en) | Merge real-world and virtual markers | |
CN102354284A (zh) | 即时通信中用以设置地理对应信息的方法及系统 | |
CN103631946A (zh) | 一种基于地理位置的内容推送系统 | |
CN109284443A (zh) | 一种基于爬虫技术的旅游推荐方法及系统 | |
US20080177794A1 (en) | Street quality assessment method and system | |
Ziegler | Radio as numbers: counting listeners in a big data world | |
CN104994062A (zh) | 一种信息推送方法及装置 | |
CN103809957A (zh) | 用于移动应用开发的基于云的整合平台及智能引擎系统 | |
CN107180073A (zh) | Poi推荐方法、装置、设备及计算机可读存储介质 | |
Setthasuravich et al. | I Can See Your Voice! Analyzing Public Opinions on Urban Issues in Thailand’s Khon Kaen Municipality Through Social Media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: American California Patentee after: Google limited liability company Address before: American California Patentee before: Google Inc. |
|
CP01 | Change in the name or title of a patent holder |