CN104992706A - 一种基于语音的信息推送方法及装置 - Google Patents

一种基于语音的信息推送方法及装置 Download PDF

Info

Publication number
CN104992706A
CN104992706A CN201510251387.2A CN201510251387A CN104992706A CN 104992706 A CN104992706 A CN 104992706A CN 201510251387 A CN201510251387 A CN 201510251387A CN 104992706 A CN104992706 A CN 104992706A
Authority
CN
China
Prior art keywords
information
user
characteristic information
voice
sent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510251387.2A
Other languages
English (en)
Inventor
曹海军
祁安龙
王凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201510251387.2A priority Critical patent/CN104992706A/zh
Publication of CN104992706A publication Critical patent/CN104992706A/zh
Priority to US14/966,593 priority patent/US20160336005A1/en
Priority to EP15199503.2A priority patent/EP3093775A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明提供了一种基于语音的信息推送方法及装置,其中的方法包括:接收语音;获取所述语音中的至少一个声音特征信息;根据所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户。通过该方法通过语音中的声音特征信息将待发送的信息进行推送,可以针对不同的用户特征进行精准的个性化服务,增加了信息推送的准确性,满足了用户的个性化需求。

Description

一种基于语音的信息推送方法及装置
技术领域
本发明涉及计算机领域,尤其涉及一种基于语音的信息推送方法及装置。
背景技术
随着语音识别技术的飞速发展,语音搜索、语音导航和语音购物等应用已经广泛用于日常生活中。目前常用的基于语音指令的服务都是将语音指令转换为文字,然后,根据文字内容进行搜索、导航和购物等服务。但仅根据文字内容进行的搜索、导航和购物没有针对性,其并不能针对不同的用户特征进行精准的个性化服务。
发明内容
本发明解决的技术问题之一是现有基于语音的服务并不能针对不同的用户特征进行精准的个性化服务。
根据本发明一方面的一个实施例,提供了一种基于语音的信息推送方法,包括:
接收语音;
获取所述语音中的至少一个声音特征信息;
根据所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户。
根据本发明另一方面的一个实施例,提供了一种基于语音的信息推送装置,包括:
用于接收语音的装置;
用于获取所述语音中的至少一个声音特征信息的装置;
用于根据所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户的装置。
由于本实施例通过语音中的声音特征信息将待发送的信息进行推送,可以针对不同的用户特征进行精准的个性化服务,增加了信息推送的准确性,满足了用户的个性化需求。
本领域普通技术人员将了解,虽然下面的详细说明将参考图示实施例、附图进行,但本发明并不仅限于这些实施例。而是,本发明的范围是广泛的,且意在仅通过后附的权利要求限定本发明的范围。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出了根据本发明实施例一基于语音的信息推送方法的流程图。
图2示出了根据本发明实施例一基于语音的信息推送方法中步骤S130的具体流程图。
图3示出了根据本发明实施例又一基于语音的信息推送方法的流程图。
图4示出了根据本发明实施例又一基于语音的信息推送方法中步骤S330的具体流程图。
图5示出了根据本发明实施例一基于语音的信息推送装置的框图。
图6示出了根据本发明实施例又一基于语音的信息推送装置的框图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
在上下文中所称“计算机设备”,也称为“电脑”,是指可以通过运行预定程序或指令来执行数值计算和/或逻辑计算等预定处理过程的智能电子设备,其可以包括处理器与存储器,由处理器执行在存储器中预存的存续指令来执行预定处理过程,或是由ASIC、FPGA、DSP等硬件执行预定处理过程,或是由上述二者组合来实现。计算机设备包括但不限于服务器、个人电脑、笔记本电脑、平板电脑、智能手机等。
所述计算机设备包括用户设备与网络设备。其中,所述用户设备包括但不限于电脑、智能手机、PDA等;所述网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(Cloud Computing)的由大量计算机或网络服务器构成的云,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。其中,所述计算机设备可单独运行来实现本发明,也可接入网络并通过与网络中的其他计算机设备的交互操作来实现本发明。其中,所述计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、VPN网络等。
需要说明的是,所述用户设备、网络设备和网络等仅为举例,其他现有的或今后可能出现的计算机设备或网络如可适用于本发明,也应包含在本发明保护范围以内,并以引用方式包含于此。
后面所讨论的方法(其中一些通过流程图示出)可以通过硬件、软件、固件、中间件、微代码、硬件描述语言或者其任意组合来实施。当用软件、固件、中间件或微代码来实施时,用以实施必要任务的程序代码或代码段可以被存储在机器或计算机可读介质(比如存储介质)中。(一个或多个)处理器可以实施必要的任务。
这里所公开的具体结构和功能细节仅仅是代表性的,并且是用于描述本发明的示例性实施例的目的。但是本发明可以通过许多替换形式来具体实现,并且不应当被解释成仅仅受限于这里所阐述的实施例。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
应当理解的是,当一个单元被称为“连接”或“耦合”到另一单元时,其可以直接连接或耦合到所述另一单元,或者可以存在中间单元。与此相对,当一个单元被称为“直接连接”或“直接耦合”到另一单元时,则不存在中间单元。应当按照类似的方式来解释被用于描述单元之间的关系的其他词语(例如“处于...之间”相比于“直接处于...之间”,“与...邻近”相比于“与...直接邻近”等等)。
这里所使用的术语仅仅是为了描述具体实施例而不意图限制示例性实施例。除非上下文明确地另有所指,否则这里所使用的单数形式“一个”、“一项”还意图包括复数。还应当理解的是,这里所使用的术语“包括”和/或“包含”规定所陈述的特征、整数、步骤、操作、单元和/或组件的存在,而不排除存在或添加一个或更多其他特征、整数、步骤、操作、单元、组件和/或其组合。
还应当提到的是,在一些替换实现方式中,所提到的功能/动作可以按照不同于附图中标示的顺序发生。举例来说,取决于所涉及的功能/动作,相继示出的两幅图实际上可以基本上同时执行或者有时可以按照相反的顺序来执行。
下面结合附图对本发明作进一步详细描述。
图1是根据本发明一个实施例的基于语音的信息推送方法的流程图。
结合图1中所示,本实施例所述的基于语音的信息推送方法,包括如下步骤:
S110、接收语音;
S120、获取所述语音中的至少一个声音特征信息;
S130、根据所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户。
下面对各步骤做进一步详细介绍。
步骤S110中,语音可以是用户通过人机交互接口输入的语音,也可以是录音文件作为语音,还可以是其他形式的语音,本发明实施例对语音的接收形式不做具体限定。
步骤S120中,获取所述语音中的至少一个声音特征信息。
具体地,声音特征信息主要包括音调、音色和/或响度,其中,音调主要由声音的频率决定,一般来说,儿童说话的音调比成人的高,女子声音的音调比男子高。其中,响度的大小由物体的振幅以及发声体与接收体间的距离来决定。其中,音色是指声音的感觉特性,由于发声体的材料和结构不同,故声音的音色也就不同。作为可选的,声音特征信息还可以包括语速、元音长短、结尾词和/或地域口音特征等,其中,元音长短指的是不同的用户元音发音时有长有短的情况。其中,结尾词可以例如“了,啦”等,不同的用户可能采用不同的结尾词。其中,地域口音特征可以例如湖北某地的口音中l和n混合的情况,或者湖南或福建等地的口音中h和f不分的情况等。
可选地,在一个实施例中,如图2中所示,步骤S130具体可以包括以下步骤:
步骤S1301、根据所述至少一个声音特征信息确定所述语音对应的用户的特征信息。
具体的,用户的特征信息可以包括性别、年龄、健康状况、地域口音、民族、受教育程度(例如:博士、本科、高中或小学等)、职业(例如:厨师、记者或律师等)和/或感情色彩等,本发明并不对用户具体的特征信息做具体限定,只要能够将用户区分出不同的用户群即可。
作为可选的,可以根据至少一个声音特征信息直接确定所述语音对应的用户的特征信息的过程,例如:可以根据音调的高低确定用户的性别或年龄,即根据音调的高低可以确定用户是男性还是女性,或是成人还是儿童等。
作为可选的,也可以先建立语音样本库,该语音样本库的语音样本是针对不同的性别、年龄、健康状况、地域口音、民族、受教育程度、职业和/或感情色彩等的用户进行的采样,然后,将语音样本库中的每个语音样本根据声音特征信息生成一个多维矢量,每维矢量对应一个用户的特征信息。同样的,在接收到语音后采样同样的方法根据声音特征信息生成一个多维矢量,根据该多维矢量确定用户的特征信息,例如:可以将语音对应的多维矢量与样本库中的各个语音样本对应的多维矢量进行矢量乘积,并根据归一化矢量乘积结果来确定与哪个语音样本最符合,从而确定用户的特征信息。
本发明实施例对根据至少一个声音特征信息直接确定所述语音对应的用户的特征信息的方法不做具体限定,只要能根据语音中的至少一个声音特征信息确定出用户的特征信息的方法均可以应用于本发明中。
步骤S1302、根据用户的特征信息将待发送的信息推送给所述语音对应的用户。
具体地,若所述待发送的信息中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,则将所述第一信息推送给所述语音对应的用户。
作为可选的,每个待发送的信息都设置有用户的特征信息或用户的特征信息区间,若语音对应的用户特征信息与一待发送的信息设置的用户特征信息在阈值范围内,或,若语音对应的用户特征信息在一待发送的信息设置的用户特征信息区间内,则将该待发送的信息推送给所述语音对应的用户。
作为可选的,还可以通过多特征建模的方式将待发送的信息进行推送,即对每个用户的特征信息设置一权重变量,并根据每个用户的特征信息权值确定每个待发送的信息的质量度,然后,根据每个待发送的信息的质量度进行排序后进行推送。随着推送结果的增多,根据推送效果对每个用户的特征信息对应的权重进行实时的更正,以提高信息推送的准度和精度,从而使信息推送更准确。
本发明实施例对根据用户的特征信息将待发送的信息推送给所述语音对应的用户的方法不做具体限定,只要能针对不同的用户需求,将待发送信息推送给真正需要或关心该信息的用户的方法均可以应用于本发明中。
结合图3中所示,本实施例所述的又一基于语音的信息推送方法,包括如下步骤:
S310、接收语音;
S320、获取所述语音中的至少一个声音特征信息,并将所述语音转换成文字信息;
S330、根据所述文字信息和所述至少一个声音特征信息将待发送信息推送给所述语音对应的用户。
下面对各步骤做进一步详细介绍。
步骤S310中,语音可以是用户通过人机交互接口输入的语音,也可以是录音文件作为语音,还可以是其他形式的语音,本发明实施例对语音的接收形式不做具体限定。
步骤S320中,获取所述语音中的至少一个声音特征信息的过程,可以包括:
具体地,声音特征信息主要包括音调、音色和/或响度,其中,音调主要由声音的频率决定,一般来说,儿童说话的音调比成人的高,女子声音的音调比男子高。其中,响度的大小由物体的振幅以及发声体与接收体间的距离来决定。其中,音色是指声音的感觉特性,由于发声体的材料和结构不同,故声音的音色也就不同。作为可选的,声音特征信息还可以包括语速、元音长短、结尾词和/或地域口音特征等,其中,元音长短指的是不同的用户元音发音时有长有短的情况。其中,结尾词可以例如“了,啦”等,不同的用户可能采用不同的结尾词。其中,地域口音特征指的是例如湖北某地的口音中l和n混合的情况,或者湖南或福建等地的口音中h和f不分的情况等。
步骤S320中,将所述语音转换成文字信息的过程,可以通过语音识别技术来实现,具体的转换方法本发明实施例并不做具体限定,只要能将语音转换成文字即可。
可选地,在一个实施例中,如图4中所示,步骤S330具体可以包括以下步骤:
步骤S3301、根据所述至少一个声音特征信息确定所述语音对应的用户的特征信息。
具体的,用户的特征信息可以包括性别、年龄、健康状况、地域口音、民族、受教育程度(例如:博士、本科、高中或小学等)、职业(例如:厨师、记者或律师等)和/或感情色彩等,本发明并不对用户具体的特征信息做具体限定,只要能够将用户区分出不同的用户群即可。
作为可选的,可以根据至少一个声音特征信息直接确定所述语音对应的用户的特征信息的过程,例如:可以根据音调的高低确定用户的性别或年龄,即根据音调的高低可以确定用户是男性还是女性,或是成人还是儿童等。
作为可选的,也可以先建立语音样本库,该语音样本库的语音样本是针对不同的性别、年龄、健康状况、地域口音、民族、受教育程度、职业和/或感情色彩等的用户进行的采样,然后,将语音样本库中的每个语音样本根据声音特征信息生成一个多维矢量,每维矢量对应一个用户的特征信息。同样的,在接收到语音后采样同样的方法根据声音特征信息生成一个多维矢量,根据该多维矢量确定用户的特征信息,例如:可以将语音对应的多维矢量与样本库中的各个语音样本对应的多维矢量进行矢量乘积,并根据归一化矢量乘积结果来确定与哪个语音样本最符合,从而确定用户的特征信息。
本发明实施例对根据至少一个声音特征信息直接确定所述语音对应的用户的特征信息的方法不做具体限定,只要能根据语音中的至少一个声音特征信息确定出用户的特征信息的方法均可以应用于本发明中。
步骤S3302、在待发送的信息中确定与所述文字信息相关的信息库。
具体地,可以是将待发送的信息中含有所述文字信息的信息作为与文字信息相关的信息库,也可以是将待发送的信息按照一定关联度计算方法将与所述文字信息相关的关联度进行排序,将关联度高于预定值的信息作为与文字信息相关的信息库。本发明对具体如何确定与所述文字信息相关的信息库的方法不做具体限定,只要与所述文字信息有一定相关性的信息都可以放入该信息库中。
具体对步骤S3301和步骤S3302完成的先后顺序不做限制,可以先确定与文字信息相关的信息库,然后再确定用户的特征信息;也可以先确定用户的特征信息,再确定与文字信息相关的信息库,还可以同时确定。
步骤S3303、根据步骤S3301中确定的用户的特征信息以及步骤S3302中与文字信息相关的信息库,将待发送的信息推送给所述语音对应的用户。
作为可选的,当先确定用户的特征信息,再确定与文字信息相关的信息库时,包括:
具体地,若所述待发送的信息中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,将满足第一信息要求的信息集合作为与用户的特征信息相关的信息库,然后,在与用户的特征信息相关的信息库中进一步确定与所述文字信息相关的信息库,最后,将基于与特征信息相关的信息库中确定的与所述文字信息相关的信息库中的待发送信息推送给所述语音对应的用户。
具体地,每个待发送的信息都设置有用户的特征信息或用户的特征信息区间,若语音对应的用户特征信息与一待发送的信息设置的用户特征信息在阈值范围内,或,若语音对应的用户特征信息在一待发送的信息设置的用户特征信息区间内,则确定在阈值范围内或在用户特征信息区间内的待发送的信息作为与用户的特征信息相关的信息库,然后,在与用户的特征信息相关的信息库中进一步确定与所述文字信息相关的信息库,最后,将基于与特征信息相关的信息库中确定的与所述文字信息相关的信息库中的待发送信息推送给所述语音对应的用户。
作为可选的,当先确定与文字信息相关的信息库,再确定用户的特征信息时,包括:
具体地,若在与所述文字信息相关的信息库中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,将满足第一信息要求的信息集合中的待发送信息推送给所述语音对应的用户。
具体地,每个待发送的信息都设置有用户的特征信息或用户的特征信息区间,若语音对应的用户特征信息在与所述文字信息相关的信息库中的一待发送的信息设置的用户特征信息在阈值范围内,或,若语音对应的用户特征信息在与所述文字信息相关的信息库中的一待发送的信息设置的用户特征信息区间内,则确定在阈值范围内或在用户特征信息区间内的待发送的信息推送给所述语音对应的用户。
作为可选的,当同时确定用户的特征信息和与文字信息相关的信息库时,包括:
具体地,若所述待发送的信息中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,将满足第一信息要求的信息集合作为与用户的特征信息相关的信息库,然后,将与用户的特征信息相关的信息库和与文字信息相关的信息库取交集后,将交集中的待发送信息推送给所述语音对应的用户。
作为可选的,每个待发送的信息都设置有用户的特征信息或用户的特征信息区间,若语音对应的用户特征信息与一待发送的信息设置的用户特征信息在阈值范围内,或,若语音对应的用户特征信息在一待发送的信息设置的用户特征信息区间内,则确定在阈值范围内或在用户特征信息区间内的待发送的信息作为与用户的特征信息相关的信息库,将与用户的特征信息相关的信息库和与文字信息相关的信息库取交集后,将交集中的待发送信息推送给所述语音对应的用户。
本发明实施例对根据所述文字信息和所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户的方法不做具体限定,只要能针对不同的用户需求,将待发送信息推送给真正需要或关心该信息的用户的方法均可以应用于本发明中。
结合图5中所示,本实施例所述的基于语音的信息推送装置,包括如下装置:
用于接收语音的装置(以下简称“第一接收装置”)510;
用于获取所述语音中的至少一个声音特征信息的装置(以下简称“获取装置”)520;
用于根据所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户的装置(以下简称“第一推送装置”)530。
下面对各装置做进一步详细介绍。
第一接收装置510中,语音可以是用户通过人机交互接口输入的语音,也可以是录音文件作为语音,还可以是其他形式的语音,本发明实施例对语音的接收形式不做具体限定。
获取装置520中,声音特征信息主要包括音调、音色和/或响度,其中,音调主要由声音的频率决定,一般来说,儿童说话的音调比成人的高,女子声音的音调比男子高。其中,响度的大小由物体的振幅以及发声体与接收体间的距离来决定。其中,音色是指声音的感觉特性,由于发声体的材料和结构不同,故声音的音色也就不同。作为可选的,声音特征信息还可以包括语速、元音长短、结尾词和/或地域口音特征等,其中,元音长短指的是不同的用户元音发音时有长有短的情况。其中,结尾词可以例如“了,啦”等,不同的用户可能采用不同的结尾词。其中,地域口音特征可以例如湖北某地的口音中l和n混合的情况,或者湖南或福建等地的口音中h和f不分的情况等。
可选的,在一个实施例中,第一推送装置530具体可以包括以下装置:
用于根据所述至少一个声音特征信息确定所述语音对应的用户的特征信息的装置(以下简称“第一确定装置”)5301。
具体的,用户的特征信息可以包括性别、年龄、健康状况、地域口音、民族、受教育程度(例如:博士、本科、高中或小学等)、职业(例如:厨师、记者或律师等)和/或感情色彩等,本发明并不对用户具体的特征信息做具体限定,只要能够将用户区分出不同的用户群即可。
作为可选的,可以根据至少一个声音特征信息直接确定所述语音对应的用户的特征信息的过程,例如:可以根据音调的高低确定用户的性别或年龄,即根据音调的高低可以确定用户是男性还是女性,或是成人还是儿童等。
作为可选的,也可以先建立语音样本库,该语音样本库的语音样本是针对不同的性别、年龄、健康状况、地域口音、民族、受教育程度、职业和/或感情色彩等的用户进行的采样,然后,将语音样本库中的每个语音样本根据声音特征信息生成一个多维矢量,每维矢量对应一个用户的特征信息。同样的,在接收到语音后采样同样的方法根据声音特征信息生成一个多维矢量,根据该多维矢量确定用户的特征信息,例如:可以将语音对应的多维矢量与样本库中的各个语音样本对应的多维矢量进行矢量乘积,并根据归一化矢量乘积结果来确定与哪个语音样本最符合,从而确定用户的特征信息。
本发明实施例对根据至少一个声音特征信息直接确定所述语音对应的用户的特征信息的方法不做具体限定,只要能根据语音中的至少一个声音特征信息确定出用户的特征信息的方法均可以应用于本发明中。
用于根据用户的特征信息将待发送的信息推送给所述语音对应的用户的装置(以下简称“第一发送装置”)5302。
具体地,若所述待发送的信息中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,则将所述第一信息推送给所述语音对应的用户。
作为可选的,每个待发送的信息都设置有用户的特征信息或用户的特征信息区间,若语音对应的用户特征信息与一待发送的信息设置的用户特征信息在阈值范围内,或,若语音对应的用户特征信息在一待发送的信息设置的用户特征信息区间内,则将该待发送的信息推送给所述语音对应的用户。
作为可选的,还可以通过多特征建模的方式将待发送的信息进行推送,即对每个用户的特征信息设置一权重变量,并根据每个用户的特征信息权值确定每个待发送的信息的质量度,然后,根据每个待发送的信息的质量度进行排序后进行推送。随着推送结果的增多,根据推送效果对每个用户的特征信息对应的权重进行实时的更正,以提高信息推送的准度和精度,从而使信息推送更准确。
本发明实施例对根据用户的特征信息将待发送的信息推送给所述语音对应的用户的方法不做具体限定,只要能针对不同的用户需求,将待发送信息推送给真正需要或关心该信息的用户的方法均可以应用于本发明中。
结合图6中所示,本实施例所述的又一基于语音的信息推送装置,包括如下装置:
用于接收语音的接收装置(以下简称“第二接收装置”)610;
用于获取所述语音中的至少一个声音特征信息,并将所述语音转换成文字信息的装置(以下简称“获取转换装置”)620;
用于根据所述文字信息和所述至少一个声音特征信息将待发送信息推送给所述语音对应的用户的装置(以下简称“第二推送装置”)630。
下面对各装置做进一步详细介绍。
第二接收装置610中,语音可以是用户通过人机交互接口输入的语音,也可以是录音文件作为语音,还可以是其他形式的语音,本发明实施例对语音的接收形式不做具体限定。
获取转换装置620中,获取所述语音中的至少一个声音特征信息的过程,可以包括:
具体地,声音特征信息主要包括音调、音色和/或响度,其中,音调主要由声音的频率决定,一般来说,儿童说话的音调比成人的高,女子声音的音调比男子高。其中,响度的大小由物体的振幅以及发声体与接收体间的距离来决定。其中,音色是指声音的感觉特性,由于发声体的材料和结构不同,故声音的音色也就不同。作为可选的,声音特征信息还可以包括语速、元音长短、结尾词和/或地域口音特征等,其中,元音长短指的是不同的用户元音发音时有长有短的情况。其中,结尾词可以例如“了,啦”等,不同的用户可能采用不同的结尾词。其中,地域口音特征可以例如湖北某地的口音中l和n混合的情况,或者湖南或福建等地的口音中h和f不分的情况等。
获取转换装置620中,将所述语音转换成文字信息的过程,可以通过语音识别技术来实现,具体的转换方法本发明实施例并不做具体限定,只要能将语音转换成文字即可。
可选地,在一个实施例中,第二推送装置630具体可以包括以下装置:
用于根据所述至少一个声音特征信息确定所述语音对应的用户的特征信息的装置(以下简称“第二确定装置”)6301。
具体的,用户的特征信息可以包括性别、年龄、健康状况、地域口音、民族、受教育程度(例如:博士、本科、高中或小学等)、职业(例如:厨师、记者或律师等)和/或感情色彩等,本发明并不对用户具体的特征信息做具体限定,只要能够将用户区分出不同的用户群即可。
作为可选的,可以根据至少一个声音特征信息直接确定所述语音对应的用户的特征信息的过程,例如:可以根据音调的高低确定用户的性别或年龄,即根据音调的高低可以确定用户是男性还是女性,或是成人还是儿童等。
作为可选的,也可以先建立语音样本库,该语音样本库的语音样本是针对不同的性别、年龄、健康状况、地域口音、民族、受教育程度、职业和/或感情色彩等的用户进行的采样,然后,将语音样本库中的每个语音样本根据声音特征信息生成一个多维矢量,每维矢量对应一个用户的特征信息。同样的,在接收到语音后采样同样的方法根据声音特征信息生成一个多维矢量,根据该多维矢量确定用户的特征信息,例如:可以将语音对应的多维矢量与样本库中的各个语音样本对应的多维矢量进行矢量乘积,并根据归一化矢量乘积结果来确定与哪个语音样本最符合,从而确定用户的特征信息。
本发明实施例对根据至少一个声音特征信息直接确定所述语音对应的用户的特征信息的方法不做具体限定,只要能根据语音中的至少一个声音特征信息确定出用户的特征信息的方法均可以应用于本发明中。
用于在待发送的信息中确定与所述文字信息相关的信息库的装置(以下简称“第三确定装置”)6302。
具体地,可以是将待发送的信息中含有所述文字信息的信息作为与文字信息相关的信息库,也可以是将待发送的信息按照一定关联度计算方法将与所述文字信息相关的关联度进行排序,将关联度高于预定值的信息作为与文字信息相关的信息库。本发明对具体如何确定与所述文字信息相关的信息库的方法不做具体限定,只要与所述文字信息有一定相关性的信息都可以放入该信息库中。
具体对第二确定装置6301和第三确定装置6302完成的先后顺序不做限制,可以先确定与文字信息相关的信息库,然后再确定用户的特征信息;也可以先确定用户的特征信息,再确定与文字信息相关的信息库,还可以同时确定。
用于根据第二确定装置6301中确定的用户的特征信息以及第三确定装置6302中确定的与文字信息相关的信息库,将待发送的信息推送给所述语音对应的用户(以下简称“第二发送装置”)6303。
作为可选的,当先确定用户的特征信息,再确定与文字信息相关的信息库时,包括:
具体地,若所述待发送的信息中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,将满足第一信息要求的信息集合作为与用户的特征信息相关的信息库,然后,在与用户的特征信息相关的信息库中进一步确定与所述文字信息相关的信息库,最后,将基于与特征信息相关的信息库中确定的与所述文字信息相关的信息库中的待发送信息推送给所述语音对应的用户。
具体地,每个待发送的信息都设置有用户的特征信息或用户的特征信息区间,若语音对应的用户特征信息与一待发送的信息设置的用户特征信息在阈值范围内,或,若语音对应的用户特征信息在一待发送的信息设置的用户特征信息区间内,则确定在阈值范围内或在用户特征信息区间内的待发送的信息作为与用户的特征信息相关的信息库,然后,在与用户的特征信息相关的信息库中进一步确定与所述文字信息相关的信息库,最后,将基于与特征信息相关的信息库中确定的与所述文字信息相关的信息库中的待发送信息推送给所述语音对应的用户。
作为可选的,当先确定与文字信息相关的信息库,再确定用户的特征信息时,包括:
具体地,若在与所述文字信息相关的信息库中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,将满足第一信息要求的信息集合中的待发送信息推送给所述语音对应的用户。
具体地,每个待发送的信息都设置有用户的特征信息或用户的特征信息区间,若语音对应的用户特征信息在与所述文字信息相关的信息库中的一待发送的信息设置的用户特征信息在阈值范围内,或,若语音对应的用户特征信息在与所述文字信息相关的信息库中的一待发送的信息设置的用户特征信息区间内,则确定在阈值范围内或在用户特征信息区间内的待发送的信息推送给所述语音对应的用户。
作为可选的,当同时确定用户的特征信息和与文字信息相关的信息库时,包括:
具体地,若所述待发送的信息中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,将满足第一信息要求的信息集合作为与用户的特征信息相关的信息库,然后,将与用户的特征信息相关的信息库和与文字信息相关的信息库取交集后,将交集中的待发送信息推送给所述语音对应的用户。
作为可选的,每个待发送的信息都设置有用户的特征信息或用户的特征信息区间,若语音对应的用户特征信息与一待发送的信息设置的用户特征信息在阈值范围内,或,若语音对应的用户特征信息在一待发送的信息设置的用户特征信息区间内,则确定在阈值范围内或在用户特征信息区间内的待发送的信息作为与用户的特征信息相关的信息库,将与用户的特征信息相关的信息库和与文字信息相关的信息库取交集后,将交集中的待发送信息推送给所述语音对应的用户。
本发明实施例对根据所述文字信息和所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户的方法不做具体限定,只要能针对不同的用户需求,将待发送信息推送给真正需要或关心该信息的用户的方法均可以应用于本发明中。
本发明实施例提供的基于语音的信息推送方法及装置,实现了基于语音的更精准的搜索服务,从语音中提取文字以外的声音特征信息,从而确定用户的特征信息,以根据性别、年龄等用户的特征信息进行针对性和个性化的信息推送和服务,增加服务结果的准确性,可以针对不同的用户特征进行精准的个性化服务,增加了信息推送的准确性,满足了用户的个性化需求,提高了用户体验。同时结合语音中的文字信息与用户的特征信息进行信息的推送,更进一步提高了针对不同用户需求进行推送的精准度。本发明实施例可用于但不限于:语音搜索、语音购物、语音导航以及基于语音通话内容或语音群聊等方式获得的语音进行信息的推送,例如基于群聊中的语音获得声音特征信息和文字信息并确定用户的特征信息为5岁小女孩,故将与英语学习相关的信息推送给该小女孩。
需要注意的是,本发明可在软件和/或软件与硬件的组合体中被实施,例如,本发明的各个装置可采用专用集成电路(ASIC)或任何其他类似硬件设备来实现。在一个实施例中,本发明的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本发明的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本发明的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
虽然前面特别示出并且描述了示例性实施例,但是本领域技术人员将会理解的是,在不背离权利要求书的精神和范围的情况下,在其形式和细节方面可以有所变化。这里所寻求的保护在所附权利要求书中做了阐述。

Claims (10)

1.一种基于语音的信息推送方法,包括:
接收语音;
获取所述语音中的至少一个声音特征信息;
根据所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户。
2.根据权利要求1所述的方法,其中,所述根据所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户的步骤包括:
将所述语音转换成文字信息;
根据所述文字信息和所述至少一个声音特征信息将待发送信息推送给所述语音对应的用户。
3.根据权利要求1所述的方法,其中,所述根据所述至少一个声音特征信息将待发送信息推送给所述语音对应的用户的步骤包括:
根据所述至少一个声音特征信息确定所述语音对应的用户的特征信息,所述声音特征信息包括音调、音色和/或响度;
根据用户的特征信息将待发送的信息推送给所述语音对应的用户。
4.根据权利要求3所述的方法,其中,根据用户的特征信息将待发送的信息推送给所述语音对应的用户的步骤包括:
若所述待发送的信息中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,则将所述第一信息推送给所述语音对应的用户。
5.根据权利要求2所述的方法,其中,所述根据所述文字信息和所述至少一个声音特征信息将待发送信息推送给所述语音对应的用户的步骤包括:
根据所述至少一个声音特征信息确定所述语音对应的用户的特征信息,所述声音特征信息包括音调、音色和/或响度;
在所述待发送的信息中确定与所述文字信息相关的信息库,若所述信息库中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,则将所述第一信息推送给所述语音对应的用户。
6.一种基于语音的信息推送装置,包括:
用于接收语音的装置;
用于获取所述语音中的至少一个声音特征信息的装置;
用于根据所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户的装置。
7.根据权利要求6所述的装置,其中,用于根据所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户的装置包括:
用于将所述语音转换成文字信息的装置;
用于根据所述文字信息和所述至少一个声音特征信息将待发送信息推送给所述语音对应的用户的装置。
8.根据权利要求6所述的装置,所述用于根据所述至少一个声音特征信息将待发送的信息推送给所述语音对应的用户的装置包括:
用于根据所述至少一个包括音调、音色和/或响度的声音特征信息确定所述语音对应的用户的特征信息的装置;
用于根据用户的特征信息将待发送的信息推送给所述语音对应的用户的装置。
9.根据权利要求8所述的装置,其中,用于根据用户的特征信息将待发送的信息推送给所述语音对应的用户的装置包括:
用于若所述待发送的信息中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,则将所述第一信息推送给所述语音对应的用户的装置。
10.根据权利要求7所述的装置,其中,所述用于根据所述文字信息和所述至少一个声音特征信息将待发送信息推送给所述语音对应的用户的装置包括:
用于根据所述至少一个包括音调、音色和/或响度的声音特征信息确定所述语音对应的用户的特征信息的装置;
用于在所述待发送的信息中确定与所述文字信息相关的信息库,若所述信息库中的第一信息对应的第一特征信息与所述用户的特征信息在阈值范围内,则将所述第一信息推送给所述语音对应的用户的装置。
CN201510251387.2A 2015-05-15 2015-05-15 一种基于语音的信息推送方法及装置 Pending CN104992706A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201510251387.2A CN104992706A (zh) 2015-05-15 2015-05-15 一种基于语音的信息推送方法及装置
US14/966,593 US20160336005A1 (en) 2015-05-15 2015-12-11 Method and apparatus for speech-based information push
EP15199503.2A EP3093775A1 (en) 2015-05-15 2015-12-11 Method and apparatus for speech-based information push

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510251387.2A CN104992706A (zh) 2015-05-15 2015-05-15 一种基于语音的信息推送方法及装置

Publications (1)

Publication Number Publication Date
CN104992706A true CN104992706A (zh) 2015-10-21

Family

ID=54304509

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510251387.2A Pending CN104992706A (zh) 2015-05-15 2015-05-15 一种基于语音的信息推送方法及装置

Country Status (3)

Country Link
US (1) US20160336005A1 (zh)
EP (1) EP3093775A1 (zh)
CN (1) CN104992706A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105551482A (zh) * 2015-12-23 2016-05-04 苏州汇莱斯信息科技有限公司 一种基于dsp的声音识别匹配算法
CN105681318A (zh) * 2016-02-03 2016-06-15 百度在线网络技术(北京)有限公司 基于人工智能的语音识别的信息推送方法和装置
CN106128467A (zh) * 2016-06-06 2016-11-16 北京云知声信息技术有限公司 语音处理方法及装置
CN106453058A (zh) * 2016-11-14 2017-02-22 北京小米移动软件有限公司 推送信息的方法及装置
CN107886348A (zh) * 2017-09-30 2018-04-06 厦门快商通信息技术有限公司 一种人工智能点餐方法及系统
CN108021622A (zh) * 2017-11-21 2018-05-11 北京金山安全软件有限公司 一种信息确定方法、装置、电子设备及存储介质
CN108829739A (zh) * 2018-05-23 2018-11-16 出门问问信息科技有限公司 一种信息推送方法及装置
CN108899033A (zh) * 2018-05-23 2018-11-27 出门问问信息科技有限公司 一种确定说话人特征的方法及装置
CN112839107A (zh) * 2021-02-25 2021-05-25 北京梧桐车联科技有限责任公司 推送内容的确定方法、装置、设备及计算机可读存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150068609A (ko) * 2013-12-12 2015-06-22 삼성전자주식회사 이미지 정보 표시 방법 및 장치
US10832684B2 (en) 2016-08-31 2020-11-10 Microsoft Technology Licensing, Llc Personalization of experiences with digital assistants in communal settings through voice and query processing
US9934785B1 (en) 2016-11-30 2018-04-03 Spotify Ab Identification of taste attributes from an audio signal
CN110867191B (zh) 2018-08-28 2024-06-25 洞见未来科技股份有限公司 语音处理方法、信息装置与计算机程序产品
CN109065054A (zh) * 2018-08-31 2018-12-21 出门问问信息科技有限公司 语音识别纠错方法、装置、电子设备及可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080154870A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Collection and use of side information in voice-mediated mobile search
US20080214152A1 (en) * 2005-09-14 2008-09-04 Jorey Ramer Methods and systems of mobile dynamic content presentation
CN102262644A (zh) * 2010-05-25 2011-11-30 索尼公司 搜索装置、搜索方法以及程序
US20130117020A1 (en) * 2011-11-07 2013-05-09 Electronics And Telecommunications Research Institute Personalized advertisement device based on speech recognition sms service, and personalized advertisement exposure method based on speech recognition sms service
US20140129220A1 (en) * 2011-03-03 2014-05-08 Shilei ZHANG Speaker and call characteristic sensitive open voice search
CN104391673A (zh) * 2014-11-20 2015-03-04 百度在线网络技术(北京)有限公司 语音交互方法和装置
CN105190614A (zh) * 2013-03-12 2015-12-23 微软技术许可有限责任公司 使用声调细微差别的搜索结果

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080214152A1 (en) * 2005-09-14 2008-09-04 Jorey Ramer Methods and systems of mobile dynamic content presentation
US20080154870A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Collection and use of side information in voice-mediated mobile search
CN102262644A (zh) * 2010-05-25 2011-11-30 索尼公司 搜索装置、搜索方法以及程序
US20140129220A1 (en) * 2011-03-03 2014-05-08 Shilei ZHANG Speaker and call characteristic sensitive open voice search
US20130117020A1 (en) * 2011-11-07 2013-05-09 Electronics And Telecommunications Research Institute Personalized advertisement device based on speech recognition sms service, and personalized advertisement exposure method based on speech recognition sms service
CN105190614A (zh) * 2013-03-12 2015-12-23 微软技术许可有限责任公司 使用声调细微差别的搜索结果
CN104391673A (zh) * 2014-11-20 2015-03-04 百度在线网络技术(北京)有限公司 语音交互方法和装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105551482A (zh) * 2015-12-23 2016-05-04 苏州汇莱斯信息科技有限公司 一种基于dsp的声音识别匹配算法
CN105681318A (zh) * 2016-02-03 2016-06-15 百度在线网络技术(北京)有限公司 基于人工智能的语音识别的信息推送方法和装置
CN106128467A (zh) * 2016-06-06 2016-11-16 北京云知声信息技术有限公司 语音处理方法及装置
CN106453058A (zh) * 2016-11-14 2017-02-22 北京小米移动软件有限公司 推送信息的方法及装置
CN107886348A (zh) * 2017-09-30 2018-04-06 厦门快商通信息技术有限公司 一种人工智能点餐方法及系统
CN108021622A (zh) * 2017-11-21 2018-05-11 北京金山安全软件有限公司 一种信息确定方法、装置、电子设备及存储介质
CN108829739A (zh) * 2018-05-23 2018-11-16 出门问问信息科技有限公司 一种信息推送方法及装置
CN108899033A (zh) * 2018-05-23 2018-11-27 出门问问信息科技有限公司 一种确定说话人特征的方法及装置
CN112839107A (zh) * 2021-02-25 2021-05-25 北京梧桐车联科技有限责任公司 推送内容的确定方法、装置、设备及计算机可读存储介质

Also Published As

Publication number Publication date
US20160336005A1 (en) 2016-11-17
EP3093775A1 (en) 2016-11-16

Similar Documents

Publication Publication Date Title
CN104992706A (zh) 一种基于语音的信息推送方法及装置
US9460704B2 (en) Deep networks for unit selection speech synthesis
CN102254557B (zh) 基于自然语音识别的导航方法和系统
CN116127045B (zh) 生成式大语言模型训练方法、基于模型的人机语音交互方法
CN104718569B (zh) 改进语音发音
JP2023535709A (ja) 言語表現モデルシステム、事前訓練方法、装置、機器及び媒体
CN116127020B (zh) 生成式大语言模型训练方法以及基于模型的搜索方法
CN103064826B (zh) 一种用于表情输入的方法、装置与系统
CN103187052B (zh) 一种建立用于语音识别的语言模型的方法及装置
CN115359383B (zh) 跨模态特征提取、检索以及模型的训练方法、装置及介质
CN103268313A (zh) 一种自然语言的语义解析方法及装置
CN104933084A (zh) 一种用于获得答案信息的方法、装置和设备
JP2015524096A (ja) 音声制御ナビゲーション・システム用のランドマークに基づく場所思考追跡
CN109460461A (zh) 基于文本相似度模型的文本匹配方法及系统
CN110187780B (zh) 长文本预测方法、装置、设备和存储介质
CN104951456A (zh) 一种用于获得答案信息的方法、装置和设备
CN112183078B (zh) 文本摘要确定方法和装置
CN105279259A (zh) 一种搜索结果的确定方法及装置
CN116244416A (zh) 生成式大语言模型训练方法、基于模型的人机语音交互方法
CN103076893A (zh) 一种用于实现语音输入的方法与设备
CN105045889A (zh) 一种信息推送方法及装置
CN110633717A (zh) 一种目标检测模型的训练方法和装置
CN103744887A (zh) 一种用于人物搜索的方法、装置和计算机设备
CN116363459A (zh) 目标检测方法、模型训练方法、装置、电子设备及介质
CN115761339A (zh) 图像处理方法、装置、设备、介质及程序产品

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20151021