CN105159568A - 一种在输入界面中进行音乐搜索的方法和装置 - Google Patents

一种在输入界面中进行音乐搜索的方法和装置 Download PDF

Info

Publication number
CN105159568A
CN105159568A CN201510548863.7A CN201510548863A CN105159568A CN 105159568 A CN105159568 A CN 105159568A CN 201510548863 A CN201510548863 A CN 201510548863A CN 105159568 A CN105159568 A CN 105159568A
Authority
CN
China
Prior art keywords
music
music information
user
key element
obtains
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510548863.7A
Other languages
English (en)
Inventor
杨林达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201510548863.7A priority Critical patent/CN105159568A/zh
Publication of CN105159568A publication Critical patent/CN105159568A/zh
Pending legal-status Critical Current

Links

Abstract

本发明的目的是提供一种在输入界面中进行音乐搜索的方法和装置。与现有技术相比,本发明在用户的输入界面获取音乐的预定时长部分;识别所述音乐的要素;根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息;在所述输入界面中将所述音乐信息提供给所述用户,省去了用户输入音乐内容进行搜索的过程,直接满足用户所需。进一步地,本发明应用在输入应用内,让用户对于输入信息的概念不再停留在字码和人声的输入,而是扩展到对环境音的智能识别输入领域,主动输入对象不再仅限于人,输入手段多样化,从音乐识别入手,拓展开语音输入的更多可能性,对解放双手带来了可能性。

Description

一种在输入界面中进行音乐搜索的方法和装置
技术领域
本发明涉及输入技术领域,尤其涉及一种在输入界面中进行音乐搜索的方法和装置。
背景技术
随着输入应用的广泛应用,用户对输入应用的要求也日益提高,目前输入应用的语音输入功能比较薄弱单一,仅限于简单的人声的输入。而目前语音识别的应用越来越广,音乐识别、声音密码都已被普遍使用。作为输入操作的输入应用产品,对于语音识别功能的丰富性也应该有所扩展。然而,目前输入应用的现有语音技术只能识别人声,文字上屏,属于被动输入状态。
因此,如何扩展输入应用的功能,在输入界面中提供音乐搜索,满足用户需求并提升用户体验,成为本领域技术人员亟需解决的问题之一。
发明内容
本发明的目的是提供一种在输入界面中进行音乐搜索的方法和装置。
根据本发明的一个方面,提供了一种在输入界面中进行音乐搜索的方法,其中,该方法包括以下步骤:
a在用户的输入界面获取音乐的预定时长部分;
b识别所述音乐的要素;
c根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息;
d在所述输入界面中将所述音乐信息提供给所述用户。
根据本发明的另一个方面,还提供了一种在输入界面中进行音乐搜索的搜索装置,其中,该搜索装置包括:
获取装置,用于在用户的输入界面获取音乐的预定时长部分;
识别装置,用于识别所述音乐的要素;
匹配装置,用于根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息;
提供装置,用于在所述输入界面中将所述音乐信息提供给所述用户。
与现有技术相比,本发明在用户的输入界面获取音乐的预定时长部分;识别所述音乐的要素;根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息;在所述输入界面中将所述音乐信息提供给所述用户,省去了用户输入音乐内容进行搜索的过程,直接满足用户所需。本发明在输入应用的语音输入功能中添加音乐识别功能,通过对旋律、发音、歌词等要素的多角度判断,连接人与服务实现快速搜索,并实时推送音乐搜索结果。进一步地,本发明应用在输入应用内,让用户对于输入信息的概念不再停留在字码和人声的输入,而是扩展到对环境音的智能识别输入领域,主动输入对象不再仅限于人,输入手段多样化,从音乐识别入手,拓展开语音输入的更多可能性,对解放双手带来了可能性。
进一步地,本发明在一开始不能精确匹配得到音乐信息时,继续获取该音乐的剩余部分的预定时长部分,识别其中的要素并基于此在已获得的候选音乐信息中进行筛选,最终得到与该音乐相对应的音乐信息,使得匹配结果更精确,进一步提升用户的使用体验。
进一步地,本发明先根据首选要素匹配得到候选音乐信息,再根据辅助要素从候选音乐信息中进行筛选,最终得到与该音乐相对应的音乐信息,使得匹配结果更精确,进一步提升用户的使用体验。
更进一步地,本发明在一开始通过首选要素不能精确匹配得到音乐信息时,继续获取该音乐的剩余部分的预定时长部分,识别其中的辅助要素并基于此在已获得的候选音乐信息中进行筛选,最终得到与该音乐相对应的音乐信息,使得匹配结果更精确,进一步提升用户的使用体验。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为根据本发明一个方面的用于在输入界面中进行音乐搜索的装置的结构示意图;
图2为根据本发明一个优选实施例的用于在输入界面中进行音乐搜索的示意图;
图3为根据本发明另一个优选实施例的用于在输入界面中进行音乐搜索的示意图;
图4为根据本发明另一个方面的用于在输入界面中进行音乐搜索的方法的流程示意图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
在上下文中所称“计算机设备”,也称为“电脑”,是指可以通过运行预定程序或指令来执行数值计算和/或逻辑计算等预定处理过程的智能电子设备,其可以包括处理器与存储器,由处理器执行在存储器中预存的存续指令来执行预定处理过程,或是由ASIC、FPGA、DSP等硬件执行预定处理过程,或是由上述二者组合来实现。计算机设备包括但不限于服务器、个人电脑、笔记本电脑、平板电脑、智能手机等。
所述计算机设备包括用户设备与网络设备。其中,所述用户设备包括但不限于电脑、智能手机、PDA等;所述网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量计算机或网络服务器构成的云,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。其中,所述计算机设备可单独运行来实现本发明,也可接入网络并通过与网络中的其他计算机设备的交互操作来实现本发明。其中,所述计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、VPN网络等。
需要说明的是,所述用户设备、网络设备和网络等仅为举例,其他现有的或今后可能出现的计算机设备或网络如可适用于本发明,也应包含在本发明保护范围以内,并以引用方式包含于此。
后面所讨论的方法(其中一些通过流程图示出)可以通过硬件、软件、固件、中间件、微代码、硬件描述语言或者其任意组合来实施。当用软件、固件、中间件或微代码来实施时,用以实施必要任务的程序代码或代码段可以被存储在机器或计算机可读介质(比如存储介质)中。(一个或多个)处理器可以实施必要的任务。
这里所公开的具体结构和功能细节仅仅是代表性的,并且是用于描述本发明的示例性实施例的目的。但是本发明可以通过许多替换形式来具体实现,并且不应当被解释成仅仅受限于这里所阐述的实施例。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
应当理解的是,当一个单元被称为“连接”或“耦合”到另一单元时,其可以直接连接或耦合到所述另一单元,或者可以存在中间单元。与此相对,当一个单元被称为“直接连接”或“直接耦合”到另一单元时,则不存在中间单元。应当按照类似的方式来解释被用于描述单元之间的关系的其他词语(例如“处于...之间”相比于“直接处于...之间”,“与...邻近”相比于“与...直接邻近”等等)。
这里所使用的术语仅仅是为了描述具体实施例而不意图限制示例性实施例。除非上下文明确地另有所指,否则这里所使用的单数形式“一个”、“一项”还意图包括复数。还应当理解的是,这里所使用的术语“包括”和/或“包含”规定所陈述的特征、整数、步骤、操作、单元和/或组件的存在,而不排除存在或添加一个或更多其他特征、整数、步骤、操作、单元、组件和/或其组合。
还应当提到的是,在一些替换实现方式中,所提到的功能/动作可以按照不同于附图中标示的顺序发生。举例来说,取决于所涉及的功能/动作,相继示出的两幅图实际上可以基本上同时执行或者有时可以按照相反的顺序来执行。
下面结合附图对本发明作进一步详细描述。
图1为根据本发明一个方面的用于在输入界面中进行音乐搜索的装置的结构示意图。
搜索装置1包括获取装置101、识别装置102、匹配装置103和提供装置104。
在此,搜索装置1例如可以位于计算机设备中,所述计算机设备包括用户设备与网络设备。当该搜索装置1位于网络设备时,其与用户设备之间通过网络进行相互通信,接收用户设备在用户的输入界面所获取的音乐的预定时长部分,识别所述音乐的要素,根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息,返回给所述用户设备,以在所述输入界面中将所述音乐信息提供给所述用户。
以下以该搜索装置1位于用户设备中,特别地,位于移动设备中,为例进行详细描述。
其中,获取装置101在用户的输入界面获取音乐的预定时长部分。具体地,用户通过点击、长按输入应用中预定的按钮等方式,触发该输入应用的获取音乐功能,获取装置101例如通过开启用户设备的麦克风,在该用户的输入界面获取音乐的预定时长部分,例如,获取10秒钟长度的该音乐;或者,也可以等该音乐完全结束播放之后,获取装置101再获取该音乐的全部时长。
在此,音乐的预定时长部分例如可以由用户来选择,如用户每次手动点击结束按钮,结束获取该音乐,或者,该预定时长部分也可以是预置的,如10s,其值可以是预置的,也可以由用户进行调整。
优选地,所述音乐包括以下任一项:
-所述用户演唱的音乐;
-环境音乐。
在此,所述音乐可以是该用户自己演唱的音乐,也可以是环境音乐,例如,该用户设备自带的音乐播放器或其他外界音乐播放器所播放的音乐。
需要说明的是,上述举例仅为更好地说明本发明的技术方案,而非对本发明的限制,本领域技术人员应该理解,任何其他现有的或今后可能出现的音乐、或获取音乐的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用的方式包含于此。
识别装置102识别所述音乐的要素。具体地,识别装置102根据获取装置101在用户的输入界面所获取的音乐的预定时长部分,例如通过语音识别识别出该预定时长部分的歌词,通过旋律识别识别出该预定时长部分的旋律等方式,识别该音乐的要素。在此,所述要素包括但不限于歌词、旋律、节奏、音调、音律、声线、方言等。
需要说明的是,上述举例仅为更好地说明本发明的技术方案,而非对本发明的限制,本领域技术人员应该理解,任何其他现有的或今后可能出现的要素、或识别要素的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用的方式包含于此。
匹配装置103根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息。
具体地,匹配装置103根据识别装置102所识别的要素,在音乐库中进行匹配搜索,例如,根据识别装置102所识别出的歌词、旋律、节奏、音调等要素,在音乐库中进行匹配搜索,获得与这些要素相匹配的音乐信息,从而作为与该音乐相对应的音乐信息。
在此,所述音乐库包括但不限于位于该用户设备的本地音乐库、位于网络端的属于该用户的网络音乐库、搜索引擎对应的网络音乐库等。
例如,该音乐库为搜索引擎对应的网络音乐库,匹配装置103根据识别装置102所识别出的该音乐的预定时长部分的全部或部分要素,在该网络音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息。
在此,音乐信息包括但不限于下载链接、试听链接、演唱者、歌词、作词作曲者、专辑名称、专辑封面等信息。
需要说明的是,上述举例仅为更好地说明本发明的技术方案,而非对本发明的限制,本领域技术人员应该理解,任何其他现有的或今后可能出现的音乐信息、或匹配搜索获得音乐信息的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用的方式包含于此。
提供装置104在所述输入界面中将所述音乐信息提供给所述用户。
具体地,提供装置104根据匹配装置103所匹配搜索得到的音乐信息,例如通过一次或多次调用诸如JSP、ASP或PHP等动态网页技术,或通过其他约定的方式,直接在该输入界面中将这些音乐信息提供给该用户,例如,直接在该输入界面中播放匹配得到的音乐,或者,将该音乐的下载链接、试听链接、演唱者、歌词、作词作曲者、专辑名称、专辑封面等信息在该输入界面中提供给用户。
需要说明的是,上述举例仅为更好地说明本发明的技术方案,而非对本发明的限制,本领域技术人员应该理解,任何其他现有的或今后可能出现的提供音乐信息的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用的方式包含于此。
以下用一实施例对上述装置的操作进行详细描述:
例如,该搜索装置1位于移动设备中,用户通过其移动设备的输入界面,调用了该输入应用的语音浮层,该语音浮层例如包含语音输入和音乐识别两个功能,用户再通过点击、长按或侧滑等操作,选择了其中的音乐识别功能;随后,该用户继续通过点击、长按音乐按钮等操作,触发该搜索装置1进行音乐识别,该输入应用例如显示如图2所示的界面,以提示该用户其正在进行音乐识别。假设该音乐为环境音乐,该搜索装置1中的获取装置101在该用户的输入界面获取该环境音乐的预定时长部分;识别装置102识别所述环境音乐的诸如音调,旋律,节奏、歌词等要素;接着,匹配装置103根据上述全部或部分要素,在网络端的音乐库中进行匹配搜索,获得与所述环境音乐相对应的诸如音乐名,作者,歌词等音乐信息;随后,提供装置104在所述输入界面中直接将该匹配装置103匹配得到的音乐信息的全部或部分提供给所述用户,例如,直接在该输入界面中播放试听匹配得到的音乐,如图3所示。
在此,搜索装置1在用户的输入界面获取音乐的预定时长部分;识别所述音乐的要素;根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息;在所述输入界面中将所述音乐信息提供给所述用户,省去了用户输入音乐内容进行搜索的过程,直接满足用户所需。搜索装置1在输入应用的语音输入功能中添加音乐识别功能,通过对旋律、发音、歌词等要素的多角度判断,连接人与服务实现快速搜索,并实时推送音乐搜索结果。进一步地,搜索装置1应用在输入应用内,让用户对于输入信息的概念不再停留在字码和人声的输入,而是扩展到对环境音的智能识别输入领域,主动输入对象不再仅限于人,输入手段多样化,从音乐识别入手,拓展开语音输入的更多可能性,对解放双手带来了可能性。
优选地,所述匹配装置103根据所述要素,在所述音乐库中进行匹配查询,获得与所述音乐相对应的候选音乐信息;其中,该搜索装置1还包括筛选装置(未示出),该筛选装置继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的要素;根据所述要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
具体地,该匹配装置103可能并不能一下就准确地匹配得到该用户所想要得音乐信息,或与该用户演唱的音乐或环境音乐精确匹配的音乐信息,例如,当获取装置101获取的音乐的预定时长部分的长度不够,而导致识别装置102所识别出的要素不够时,该匹配装置103不能够精确匹配,而获得了多个与该音乐相对应的候选音乐信息。随后,筛选装置继续获取该音乐的剩余部分的预定时长部分,例如,获取装置101一开始仅获取了10s长度的该音乐,则筛选装置继续获取接下来的10s长度的该音乐,继续识别该接下来的10s长度的该音乐的要素,根据这些要素,在已匹配得到的候选音乐信息中进行筛选,从而获得与该音乐相对应的音乐信息。
当该筛选装置在第一次筛选后仍不能精确匹配得到音乐信息时,其可以循环继续上述的操作,即,继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的要素;根据所述要素,在已经过筛选后保留下来的候选音乐信息中继续进行筛选,直至获得与所述音乐相对应的音乐信息。
在此,该筛选装置每一次获取该音乐的剩余部分的预定时长部分的长度可以相同,也可以不同;其与获取装置101所获取该音乐的预定时长部分的长度同样可以相同,也可以不同。该筛选装置每一次获取的该音乐的剩余部分的预定时长部分相互之间可以是衔接的,也可以是不衔接的;其与获取装置101所获取该音乐的预定时长部分同样可以是衔接的,也可以是不衔接的。
在此,搜索装置1在一开始不能精确匹配得到音乐信息时,继续获取该音乐的剩余部分的预定时长部分,识别其中的要素并基于此在已获得的候选音乐信息中进行筛选,最终得到与该音乐相对应的音乐信息,使得匹配结果更精确,进一步提升用户的使用体验。
优选地,所述匹配装置103包括匹配单元(未示出)和筛选单元(未示出)。
其中,匹配单元根据首选要素,在所述音乐库中进行匹配查询,获得与所述首选要素相对应的候选音乐信息;筛选单元根据辅助要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
具体地,一段音乐所对应的要素可以有多种,例如歌词、旋律、节奏、音调、音律、声线、方言等各种要素,匹配装置103在匹配的时候,可以仅选择其中的部分要素来进行匹配就可以匹配得到精确的音乐信息,然而,有时候仅根据部分要素并不能精确匹配得到音乐信息,而获得了多个与该音乐相对应的候选音乐信息,因此,匹配装置103需要根据其他的要素,在这些候选音乐信息中进行筛选,从而得到精确匹配的音乐信息。
例如,该匹配装置103的匹配单元首先根据识别装置102所识别出的要素中的首选要素,在所述音乐库中进行匹配查询,获得与所述首选要素相对应的候选音乐信息;随后,筛选单元根据这些要素中的辅助要素,继续在该匹配单元所匹配得到的候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。例如,匹配单元首先根据歌词进行匹配查询,获得多个对应的候选音乐信息;随后,筛选单元再根据旋律,从这些候选音乐信息中进行筛选,获得与该音乐精确匹配的音乐信息。
当该筛选单元在第一次筛选后仍不能精确匹配得到音乐信息时,其可以循环继续上述的操作,即,继续根据其他辅助要素,在已经过筛选后保留下来的候选音乐信息中继续进行筛选,直至获得与所述音乐相对应的音乐信息。
在此,搜索装置1先根据首选要素匹配得到候选音乐信息,再根据辅助要素从候选音乐信息中进行筛选,最终得到与该音乐相对应的音乐信息,使得匹配结果更精确,进一步提升用户的使用体验。
更优选地,所述筛选单元继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的辅助要素;根据所述辅助要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
具体地,有时候仅通过分批根据要素进行匹配,并不能精确匹配得到与该音乐相对应的音乐信息,例如,当获取装置101获取的音乐的预定时长部分的长度不够,而导致识别装置102所识别出的要素不够时,即使通过分批根据要素进行匹配,也不能精确匹配得到音乐信息,而获得了多个与该音乐相对应的候选音乐信息。随后,筛选单元继续获取该音乐的剩余部分的预定时长部分,例如,获取装置101一开始仅获取了10s长度的该音乐,则筛选单元继续获取接下来的10s长度的该音乐,继续识别该接下来的10s长度的该音乐的辅助要素,根据这些辅助要素,在已匹配得到的候选音乐信息中进行筛选,从而获得与该音乐相对应的音乐信息。
当该筛选单元在第一次筛选后仍不能精确匹配得到音乐信息时,其可以循环继续上述的操作,即,继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的辅助要素;根据所述辅助要素,在已经过筛选后保留下来的候选音乐信息中继续进行筛选,直至获得与所述音乐相对应的音乐信息。
在此,与前述筛选装置相类似地,该筛选单元每一次获取该音乐的剩余部分的预定时长部分的长度可以相同,也可以不同;其与获取装置101所获取该音乐的预定时长部分的长度同样可以相同,也可以不同。该筛选单元每一次获取的该音乐的剩余部分的预定时长部分相互之间可以是衔接的,也可以是不衔接的;其与获取装置101所获取该音乐的预定时长部分同样可以是衔接的,也可以是不衔接的。
在此,搜索装置1在一开始通过首选要素不能精确匹配得到音乐信息时,继续获取该音乐的剩余部分的预定时长部分,识别其中的辅助要素并基于此在已获得的候选音乐信息中进行筛选,最终得到与该音乐相对应的音乐信息,使得匹配结果更精确,进一步提升用户的使用体验。
优选地,该搜索装置1还包括操作装置(未示出),该操作装置根据所述用户对所述音乐信息的下载/试听/分享操作,下载/试听/分享所述音乐信息。
具体地,对于提供装置104在该用户的输入界面所提供的音乐信息,用户可以通过点击、长按、滑动等方式,对这些音乐信息进行下载、试听或分享等操作,操作装置根据该用户对这些音乐信息所做的操作,执行对应的操作。例如,用户通过点击下载按钮,对该匹配得到的音乐信息进行下载操作,则该操作装置直接将该音乐信息下载至指定目录或该用户所选择的目录下。又如,用户点击试听按钮,欲试听该匹配得到的音乐信息,则该操作装置直接在该输入界面中播放该音乐信息。再如,用户通过点击分享按钮,并选择了一个分享的对象或平台,则该操作装置根据该用户的选择,将该匹配得到的音乐信息分享至该对象或发送至该平台。
需要说明的是,上述举例仅为更好地说明本发明的技术方案,而非对本发明的限制,本领域技术人员应该理解,任何其他现有的或今后可能出现的对音乐信息的操作如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用的方式包含于此。
在此,搜索装置1根据用户对音乐信息的下载/试听/分享操作,下载/试听/分享该音乐信息,丰富了用户的选择,进一步提升用户的使用体验。
图4为根据本发明另一个方面的用于在输入界面中进行音乐搜索的方法的流程示意图。
在此,搜索装置1例如可以位于计算机设备中,所述计算机设备包括用户设备与网络设备。当该搜索装置1位于网络设备时,其与用户设备之间通过网络进行相互通信,接收用户设备在用户的输入界面所获取的音乐的预定时长部分,识别所述音乐的要素,根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息,返回给所述用户设备,以在所述输入界面中将所述音乐信息提供给所述用户。
以下以该搜索装置1位于用户设备中,特别地,位于移动设备中,为例进行详细描述。
在步骤S401中,搜索装置1在用户的输入界面获取音乐的预定时长部分。具体地,用户通过点击、长按输入应用中预定的按钮等方式,触发该输入应用的获取音乐功能,在步骤S401中,搜索装置1例如通过开启用户设备的麦克风,在该用户的输入界面获取音乐的预定时长部分,例如,获取10秒钟长度的该音乐;或者,也可以等该音乐完全结束播放之后,搜索装置1再获取该音乐的全部时长。
在此,音乐的预定时长部分例如可以由用户来选择,如用户每次手动点击结束按钮,结束获取该音乐,或者,该预定时长部分也可以是预置的,如10s,其值可以是预置的,也可以由用户进行调整。
优选地,所述音乐包括以下任一项:
-所述用户演唱的音乐;
-环境音乐。
在此,所述音乐可以是该用户自己演唱的音乐,也可以是环境音乐,例如,该用户设备自带的音乐播放器或其他外界音乐播放器所播放的音乐。
需要说明的是,上述举例仅为更好地说明本发明的技术方案,而非对本发明的限制,本领域技术人员应该理解,任何其他现有的或今后可能出现的音乐、或获取音乐的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用的方式包含于此。
在步骤S402中,搜索装置1识别所述音乐的要素。具体地,在步骤S402中,搜索装置1根据在步骤S401中在用户的输入界面所获取的音乐的预定时长部分,例如通过语音识别识别出该预定时长部分的歌词,通过旋律识别识别出该预定时长部分的旋律等方式,识别该音乐的要素。在此,所述要素包括但不限于歌词、旋律、节奏、音调、音律、声线、方言等。
需要说明的是,上述举例仅为更好地说明本发明的技术方案,而非对本发明的限制,本领域技术人员应该理解,任何其他现有的或今后可能出现的要素、或识别要素的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用的方式包含于此。
在步骤S403中,搜索装置1根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息。
具体地,在步骤S403中,搜索装置1根据在步骤S402中所识别的要素,在音乐库中进行匹配搜索,例如,根据在步骤S402中所识别出的歌词、旋律、节奏、音调等要素,在音乐库中进行匹配搜索,获得与这些要素相匹配的音乐信息,从而作为与该音乐相对应的音乐信息。
在此,所述音乐库包括但不限于位于该用户设备的本地音乐库、位于网络端的属于该用户的网络音乐库、搜索引擎对应的网络音乐库等。
例如,该音乐库为搜索引擎对应的网络音乐库,在步骤S403中,搜索装置1根据在步骤S402中所识别出的该音乐的预定时长部分的全部或部分要素,在该网络音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息。
在此,音乐信息包括但不限于下载链接、试听链接、演唱者、歌词、作词作曲者、专辑名称、专辑封面等信息。
需要说明的是,上述举例仅为更好地说明本发明的技术方案,而非对本发明的限制,本领域技术人员应该理解,任何其他现有的或今后可能出现的音乐信息、或匹配搜索获得音乐信息的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用的方式包含于此。
在步骤S404中,搜索装置1在所述输入界面中将所述音乐信息提供给所述用户。
具体地,在步骤S404中,搜索装置1根据在步骤S403中所匹配搜索得到的音乐信息,例如通过一次或多次调用诸如JSP、ASP或PHP等动态网页技术,或通过其他约定的方式,直接在该输入界面中将这些音乐信息提供给该用户,例如,直接在该输入界面中播放匹配得到的音乐,或者,将该音乐的下载链接、试听链接、演唱者、歌词、作词作曲者、专辑名称、专辑封面等信息在该输入界面中提供给用户。
需要说明的是,上述举例仅为更好地说明本发明的技术方案,而非对本发明的限制,本领域技术人员应该理解,任何其他现有的或今后可能出现的提供音乐信息的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用的方式包含于此。
以下用一实施例对上述步骤的操作进行详细描述:
例如,该搜索装置1位于移动设备中,用户通过其移动设备的输入界面,调用了该输入应用的语音浮层,该语音浮层例如包含语音输入和音乐识别两个功能,用户再通过点击、长按或侧滑等操作,选择了其中的音乐识别功能;随后,该用户继续通过点击、长按音乐按钮等操作,触发该搜索装置1进行音乐识别,该输入应用例如显示如图2所示的界面,以提示该用户其正在进行音乐识别。假设该音乐为环境音乐,在步骤S401中,搜索装置1在该用户的输入界面获取该环境音乐的预定时长部分;在步骤S402中,搜索装置1识别所述环境音乐的诸如音调,旋律,节奏、歌词等要素;接着,在步骤S403中,搜索装置1根据上述全部或部分要素,在网络端的音乐库中进行匹配搜索,获得与所述环境音乐相对应的诸如音乐名,作者,歌词等音乐信息;随后,在步骤S404中,搜索装置1在所述输入界面中直接将在步骤S403中匹配得到的音乐信息的全部或部分提供给所述用户,例如,直接在该输入界面中播放试听匹配得到的音乐,如图3所示。
在此,搜索装置1在用户的输入界面获取音乐的预定时长部分;识别所述音乐的要素;根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息;在所述输入界面中将所述音乐信息提供给所述用户,省去了用户输入音乐内容进行搜索的过程,直接满足用户所需。搜索装置1在输入应用的语音输入功能中添加音乐识别功能,通过对旋律、发音、歌词等要素的多角度判断,连接人与服务实现快速搜索,并实时推送音乐搜索结果。进一步地,搜索装置1应用在输入应用内,让用户对于输入信息的概念不再停留在字码和人声的输入,而是扩展到对环境音的智能识别输入领域,主动输入对象不再仅限于人,输入手段多样化,从音乐识别入手,拓展开语音输入的更多可能性,对解放双手带来了可能性。
优选地,在步骤S403中,搜索装置1根据所述要素,在所述音乐库中进行匹配查询,获得与所述音乐相对应的候选音乐信息;其中,该方法还包括步骤S405(未示出),在步骤S405中,搜索装置1继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的要素;根据所述要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
具体地,在步骤S403中,搜索装置1可能并不能一下就准确地匹配得到该用户所想要得音乐信息,或与该用户演唱的音乐或环境音乐精确匹配的音乐信息,例如,当在步骤S401中,搜索装置1获取的音乐的预定时长部分的长度不够,而导致在步骤S402中,搜索装置1所识别出的要素不够时,在步骤S403中,搜索装置1不能够精确匹配,而获得了多个与该音乐相对应的候选音乐信息。随后,在步骤S405中,搜索装置1继续获取该音乐的剩余部分的预定时长部分,例如,在步骤S401中,搜索装置1一开始仅获取了10s长度的该音乐,则在步骤S405中,搜索装置1继续获取接下来的10s长度的该音乐,继续识别该接下来的10s长度的该音乐的要素,根据这些要素,在已匹配得到的候选音乐信息中进行筛选,从而获得与该音乐相对应的音乐信息。
当在步骤S405中,搜索装置1在第一次筛选后仍不能精确匹配得到音乐信息时,其可以循环继续上述的操作,即,继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的要素;根据所述要素,在已经过筛选后保留下来的候选音乐信息中继续进行筛选,直至获得与所述音乐相对应的音乐信息。
在此,在步骤S405中,搜索装置1每一次获取该音乐的剩余部分的预定时长部分的长度可以相同,也可以不同;其与在步骤S401中,搜索装置1所获取该音乐的预定时长部分的长度同样可以相同,也可以不同。在步骤S405中,搜索装置1每一次获取的该音乐的剩余部分的预定时长部分相互之间可以是衔接的,也可以是不衔接的;其与在步骤S401中,搜索装置1所获取该音乐的预定时长部分同样可以是衔接的,也可以是不衔接的。
在此,搜索装置1在一开始不能精确匹配得到音乐信息时,继续获取该音乐的剩余部分的预定时长部分,识别其中的要素并基于此在已获得的候选音乐信息中进行筛选,最终得到与该音乐相对应的音乐信息,使得匹配结果更精确,进一步提升用户的使用体验。
优选地,所述步骤S403包括子步骤S403a(未示出)和子步骤S403b(未示出)。
其中,在子步骤S403a中,搜索装置1根据首选要素,在所述音乐库中进行匹配查询,获得与所述首选要素相对应的候选音乐信息;在子步骤S403a中,搜索装置1根据辅助要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
具体地,一段音乐所对应的要素可以有多种,例如歌词、旋律、节奏、音调、音律、声线、方言等各种要素,在步骤S403中,搜索装置1在匹配的时候,可以仅选择其中的部分要素来进行匹配就可以匹配得到精确的音乐信息,然而,有时候仅根据部分要素并不能精确匹配得到音乐信息,而获得了多个与该音乐相对应的候选音乐信息,因此,在步骤S403中,搜索装置1需要根据其他的要素,在这些候选音乐信息中进行筛选,从而得到精确匹配的音乐信息。
例如,在子步骤S403a中,搜索装置1首先根据在步骤S402中所识别出的要素中的首选要素,在所述音乐库中进行匹配查询,获得与所述首选要素相对应的候选音乐信息;随后,在子步骤S403b中,搜索装置1根据这些要素中的辅助要素,继续在该步骤S403a中所匹配得到的候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。例如,在子步骤S403a中,搜索装置1首先根据歌词进行匹配查询,获得多个对应的候选音乐信息;随后,在子步骤S403b中,搜索装置1再根据旋律,从这些候选音乐信息中进行筛选,获得与该音乐精确匹配的音乐信息。
当在子步骤S403b中,搜索装置1在第一次筛选后仍不能精确匹配得到音乐信息时,其可以循环继续上述的操作,即,继续根据其他辅助要素,在已经过筛选后保留下来的候选音乐信息中继续进行筛选,直至获得与所述音乐相对应的音乐信息。
在此,搜索装置1先根据首选要素匹配得到候选音乐信息,再根据辅助要素从候选音乐信息中进行筛选,最终得到与该音乐相对应的音乐信息,使得匹配结果更精确,进一步提升用户的使用体验。
更优选地,在子步骤S403b中,搜索装置1继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的辅助要素;根据所述辅助要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
具体地,有时候仅通过分批根据要素进行匹配,并不能精确匹配得到与该音乐相对应的音乐信息,例如,当在步骤S401中,搜索装置1获取的音乐的预定时长部分的长度不够,而导致在步骤S402中,搜索装置1所识别出的要素不够时,即使通过分批根据要素进行匹配,也不能精确匹配得到音乐信息,而获得了多个与该音乐相对应的候选音乐信息。随后,在子步骤S403b中,搜索装置1继续获取该音乐的剩余部分的预定时长部分,例如,在步骤S401中,搜索装置1一开始仅获取了10s长度的该音乐,则在子步骤S403b中,搜索装置1继续获取接下来的10s长度的该音乐,继续识别该接下来的10s长度的该音乐的辅助要素,根据这些辅助要素,在已匹配得到的候选音乐信息中进行筛选,从而获得与该音乐相对应的音乐信息。
当在子步骤S403b中,搜索装置1在第一次筛选后仍不能精确匹配得到音乐信息时,其可以循环继续上述的操作,即,继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的辅助要素;根据所述辅助要素,在已经过筛选后保留下来的候选音乐信息中继续进行筛选,直至获得与所述音乐相对应的音乐信息。
在此,与前述在步骤S405中相类似地,在子步骤S403b中,搜索装置1每一次获取该音乐的剩余部分的预定时长部分的长度可以相同,也可以不同;其与在步骤S401中,搜索装置1所获取该音乐的预定时长部分的长度同样可以相同,也可以不同。在子步骤S403b中,搜索装置1每一次获取的该音乐的剩余部分的预定时长部分相互之间可以是衔接的,也可以是不衔接的;其与在步骤S401中,搜索装置1所获取该音乐的预定时长部分同样可以是衔接的,也可以是不衔接的。
在此,搜索装置1在一开始通过首选要素不能精确匹配得到音乐信息时,继续获取该音乐的剩余部分的预定时长部分,识别其中的辅助要素并基于此在已获得的候选音乐信息中进行筛选,最终得到与该音乐相对应的音乐信息,使得匹配结果更精确,进一步提升用户的使用体验。
优选地,该方法还包括步骤S406(未示出),在步骤S406中,搜索装置1根据所述用户对所述音乐信息的下载/试听/分享操作,下载/试听/分享所述音乐信息。
具体地,对于在步骤S404中,搜索装置1在该用户的输入界面所提供的音乐信息,用户可以通过点击、长按、滑动等方式,对这些音乐信息进行下载、试听或分享等操作,在步骤S406中,搜索装置1根据该用户对这些音乐信息所做的操作,执行对应的操作。例如,用户通过点击下载按钮,对该匹配得到的音乐信息进行下载操作,则在步骤S406中,搜索装置1直接将该音乐信息下载至指定目录或该用户所选择的目录下。又如,用户点击试听按钮,欲试听该匹配得到的音乐信息,则在步骤S406中,搜索装置1直接在该输入界面中播放该音乐信息。再如,用户通过点击分享按钮,并选择了一个分享的对象或平台,则在步骤S406中,搜索装置1根据该用户的选择,将该匹配得到的音乐信息分享至该对象或发送至该平台。
需要说明的是,上述举例仅为更好地说明本发明的技术方案,而非对本发明的限制,本领域技术人员应该理解,任何其他现有的或今后可能出现的对音乐信息的操作如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用的方式包含于此。
在此,搜索装置1根据用户对音乐信息的下载/试听/分享操作,下载/试听/分享该音乐信息,丰富了用户的选择,进一步提升用户的使用体验。
需要注意的是,本发明可在软件和/或软件与硬件的组合体中被实施,例如,本发明的各个装置可采用专用集成电路(ASIC)或任何其他类似硬件设备来实现。在一个实施例中,本发明的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本发明的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本发明的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。

Claims (12)

1.一种在输入界面中进行音乐搜索的方法,其中,该方法包括以下步骤:
a在用户的输入界面获取音乐的预定时长部分;
b识别所述音乐的要素;
c根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息;
d在所述输入界面中将所述音乐信息提供给所述用户。
2.根据权利要求1所述的方法,其中,所述步骤c包括:
-根据所述要素,在所述音乐库中进行匹配查询,获得与所述音乐相对应的候选音乐信息;
其中,该方法还包括:
-继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的要素;
-根据所述要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
3.根据权利要求1所述的方法,其中,所述步骤c包括:
c1根据首选要素,在所述音乐库中进行匹配查询,获得与所述首选要素相对应的候选音乐信息;
c2根据辅助要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
4.根据权利要求3所述的方法,其中,所述步骤c2包括:
-继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的辅助要素;
-根据所述辅助要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
5.根据权利要求1至4中任一项所述的方法,其中,该方法还包括:
-根据所述用户对所述音乐信息的下载/试听/分享操作,下载/试听/分享所述音乐信息。
6.根据权利要求1至4中任一项所述的方法,其中,所述音乐包括以下任一项:
-所述用户演唱的音乐;
-环境音乐。
7.一种在输入界面中进行音乐搜索的搜索装置,其中,该搜索装置包括:
获取装置,用于在用户的输入界面获取音乐的预定时长部分;
识别装置,用于识别所述音乐的要素;
匹配装置,用于根据所述要素,在音乐库中进行匹配搜索,获得与所述音乐相对应的音乐信息;
提供装置,用于在所述输入界面中将所述音乐信息提供给所述用户。
8.根据权利要求7所述的搜索装置,其中,所述匹配装置用于:
-根据所述要素,在所述音乐库中进行匹配查询,获得与所述音乐相对应的候选音乐信息;
其中,该搜索装置还包括筛选装置,用于:
-继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的要素;
-根据所述要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
9.根据权利要求7所述的搜索装置,其中,所述匹配装置包括:
匹配单元根据首选要素,在所述音乐库中进行匹配查询,获得与所述首选要素相对应的候选音乐信息;
筛选单元根据辅助要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
10.根据权利要求9所述的搜索装置,其中,所述筛选单元用于:
-继续获取所述音乐的剩余部分的预定时长部分,识别所述剩余部分的预定时长部分的辅助要素;
-根据所述辅助要素,在所述候选音乐信息中进行筛选,获得与所述音乐相对应的音乐信息。
11.根据权利要求7至10中任一项所述的搜索装置,其中,该搜索装置还包括:
操作装置,用于根据所述用户对所述音乐信息的下载/试听/分享操作,下载/试听/分享所述音乐信息。
12.根据权利要求7至10中任一项所述的搜索装置,其中,所述音乐包括以下任一项:
-所述用户演唱的音乐;
-环境音乐。
CN201510548863.7A 2015-08-31 2015-08-31 一种在输入界面中进行音乐搜索的方法和装置 Pending CN105159568A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510548863.7A CN105159568A (zh) 2015-08-31 2015-08-31 一种在输入界面中进行音乐搜索的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510548863.7A CN105159568A (zh) 2015-08-31 2015-08-31 一种在输入界面中进行音乐搜索的方法和装置

Publications (1)

Publication Number Publication Date
CN105159568A true CN105159568A (zh) 2015-12-16

Family

ID=54800443

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510548863.7A Pending CN105159568A (zh) 2015-08-31 2015-08-31 一种在输入界面中进行音乐搜索的方法和装置

Country Status (1)

Country Link
CN (1) CN105159568A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018098932A1 (zh) * 2016-12-01 2018-06-07 百度在线网络技术(北京)有限公司 一种基于语音识别的主动型搜索方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101226526A (zh) * 2007-01-17 2008-07-23 上海怡得网络有限公司 一种基于音乐片段信息查询的音乐搜索方法
US20110106966A1 (en) * 2001-08-20 2011-05-05 Masterobjects, Inc. System and method for utilizing asynchronous client server communication objects
CN102053998A (zh) * 2009-11-04 2011-05-11 周明全 一种利用声音方式检索歌曲的方法及系统装置
US20110137855A1 (en) * 2009-12-08 2011-06-09 Xerox Corporation Music recognition method and system based on socialized music server
CN102970427A (zh) * 2012-11-16 2013-03-13 广东欧珀移动通信有限公司 一种手机播放歌曲的方法
CN102984050A (zh) * 2012-11-27 2013-03-20 上海量明科技发展有限公司 即时通信中语音搜索的方法、客户端及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110106966A1 (en) * 2001-08-20 2011-05-05 Masterobjects, Inc. System and method for utilizing asynchronous client server communication objects
CN101226526A (zh) * 2007-01-17 2008-07-23 上海怡得网络有限公司 一种基于音乐片段信息查询的音乐搜索方法
CN102053998A (zh) * 2009-11-04 2011-05-11 周明全 一种利用声音方式检索歌曲的方法及系统装置
US20110137855A1 (en) * 2009-12-08 2011-06-09 Xerox Corporation Music recognition method and system based on socialized music server
CN102970427A (zh) * 2012-11-16 2013-03-13 广东欧珀移动通信有限公司 一种手机播放歌曲的方法
CN102984050A (zh) * 2012-11-27 2013-03-20 上海量明科技发展有限公司 即时通信中语音搜索的方法、客户端及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018098932A1 (zh) * 2016-12-01 2018-06-07 百度在线网络技术(北京)有限公司 一种基于语音识别的主动型搜索方法和装置

Similar Documents

Publication Publication Date Title
CN109543064B (zh) 歌词显示处理方法、装置、电子设备及计算机存储介质
EP3095113B1 (en) Digital personal assistant interaction with impersonations and rich multimedia in responses
US8972265B1 (en) Multiple voices in audio content
US11138259B2 (en) Obtaining details regarding an image based on search intent and determining royalty distributions of musical projects
US9064484B1 (en) Method of providing feedback on performance of karaoke song
CN104281656B (zh) 在应用程序中加入标签信息的方法和装置
CN106570106A (zh) 一种输入过程中将语音信息转化为表情的方法和装置
CN105023559A (zh) K歌处理方法及系统
JP2015517684A (ja) コンテンツのカスタマイズ
CN114073854A (zh) 基于多媒体文件的游戏方法和系统
CN104809223A (zh) 一种用于在应用内提供应用内容搜索结果的方法与设备
CN111460179A (zh) 多媒体信息展示方法及装置、计算机可读介质及终端设备
CN108090081A (zh) 一种内容推荐方法与装置
EP2442299A2 (en) Information processing apparatus, information processing method, and program
CN104102659A (zh) 搜索音乐的方法及终端
JP2020529680A (ja) 通話中の感情を認識し、認識された感情を活用する方法およびシステム
CN113923390A (zh) 视频录制方法、装置、设备及存储介质
CN105159568A (zh) 一种在输入界面中进行音乐搜索的方法和装置
CN105893555A (zh) 一种浏览器界面的显示方法、装置及电子设备
WO2023005193A1 (zh) 字幕显示方法及装置
CN114974184A (zh) 音频制作方法、装置、终端设备及可读存储介质
CN113628618A (zh) 一种基于智能座舱的多媒体文件生成方法、装置及终端
CN111104546B (zh) 一种构建语料库的方法、装置、计算设备及存储介质
CN112750184B (zh) 数据处理、动作驱动与人机交互方法及设备
CN105183180A (zh) 一种辅助用户使用输入法应用的方法和设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20151216

RJ01 Rejection of invention patent application after publication