CN104335160B - 功能执行指示系统、以及功能执行指示方法 - Google Patents
功能执行指示系统、以及功能执行指示方法 Download PDFInfo
- Publication number
- CN104335160B CN104335160B CN201380027998.8A CN201380027998A CN104335160B CN 104335160 B CN104335160 B CN 104335160B CN 201380027998 A CN201380027998 A CN 201380027998A CN 104335160 B CN104335160 B CN 104335160B
- Authority
- CN
- China
- Prior art keywords
- function
- word
- perform
- input
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title description 9
- 239000000284 extract Substances 0.000 claims description 6
- 230000006870 function Effects 0.000 description 200
- 238000004891 communication Methods 0.000 description 44
- 238000012546 transfer Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
本发明合适进行使用多个单词的功能执行。功能执行指示系统(1)的功能执行指示部(10)具有:功能执行指示部(11),其指示执行1个以上的任务;单词输入部(12),其输入包括排序了的多个单词的信息;以及执行功能决定部(13),其根据所输入的单词的顺序,决定被指示执行的任务。
Description
技术领域
本发明涉及可以执行1个以上的功能的功能执行指示系统、以及功能执行指示方法。
背景技术
以往,公知有这样的系统:识别用户的声音,根据所识别的声音执行功能。例如在专利文献1中记载有:判定在用户的声音识别结果内是否包含有动词或表现感情的单词,生成与判定对应的响应。
现有技术文献
专利文献
【专利文献1】日本特开2009-198871号公报
发明内容
发明所要解决的课题
然而,存在如下情况:仅在用户的声音识别结果中提取动词或表现感情的单词,不一定可以执行合适的功能。例如。在用户的发话是“明日的天气”的情况下,认为用户想要参照天气预报,期望的是执行天气预报的功能。然而,在表示日子的单词和日程安排(scheduler)的功能对应的情况下,由于包含有“明日”之类的表现日子的单词,因而导致执行(起动)日程安排。即,发生误判定。
并且,动词和功能对应,在用户的发话是“作出去听音乐会的预定”的情况下,包含有“聞き(听)”、“行く(去))”、“作る(作出)”的多个动词。在这样的情况下,无法合适地判断是否应起动与任一动词对应的功能。
本发明是鉴于上述问题而作成的,本发明的目的是提供可以合适进行使用多个单词的功能执行的功能执行指示系统、功能执行指示方法以及功能执行指示程序。
为了达到上述目的,本发明的一个实施方式的功能执行指示系统,其中,功能执行指示系统具有:功能执行指示单元,其指示执行1个以上的功能;单词输入单元,其输入包括排序了的多个单词的信息;以及执行功能决定单元,其根据由单词输入单元所输入的单词的顺序,从1个以上的功能中决定由功能执行指示单元指示执行的功能。
在本发明的一个实施方式的功能执行指示系统中,考虑所输入的单词的顺序,决定被指示执行的功能。因此,根据需要合适使用用于决定功能的单词。由此,根据本发明的功能执行指示系统,可以合适进行使用多个单词的功能执行。
执行功能决定单元可以存储有1个以上的功能和预先设定的单词之间的对应,从单词输入单元所输入的单词中提取预先设定的单词,根据该对应和提取出的单词的由单词输入单元输入时的顺序,从1个以上的功能中决定由功能执行指示单元指示执行的功能。根据该情况,例如,即使在所输入的单词内包含有用于判断被指示执行的功能的多个动词的情况下,也可以合适判断被指示执行的功能。预先设定的单词可以是动词。
执行功能决定单元可以存储有1个以上的功能与预先设定的单词之间的对应,可以对由单词输入单元所输入的单词进行与该单词的顺序对应的加权,根据该对应和该权重,从1个以上的功能中决定由功能执行指示单元指示执行的功能。根据该结构,即使是同一单词,也可以根据单词的顺序在决定功能方面合适地考虑。因此,可以合适进行使用多个单词的功能执行。
功能执行指示系统可以还具有声音识别单元,声音识别单元输入声音,对所输入的声音进行声音识别,将进行了声音识别的结果输入到单词输入单元。根据该结构,能够根据用户的声音执行功能。
另外,本发明除了如上所述可以作为功能执行指示系统的发明进行描述以外,还可以如以下所述作为功能执行指示方法和功能执行指示程序的发明进行描述。这只是类别等不同,实质上是同一发明,取得相同的作用和效果。
即,本发明的一个实施方式的功能执行指示方法包括:功能执行指示步骤,指示执行1个以上的功能;单词输入步骤,输入包含排序了的多个单词的信息;以及执行功能决定步骤,根据在单词输入步骤中所输入的单词的顺序,从1个以上的功能中决定在功能执行指示步骤中指示执行的功能。
本发明的一个实施方式的功能执行指示程序使计算机作为以下执行功能:功能执行指示单元,其指示执行1个以上的功能;单词输入单元,其输入包括排序了的多个单词的信息;以及执行功能决定单元,其根据由单词输入单元所输入的单词的顺序,从1个以上的功能中决定由功能执行指示单元指示执行的功能。
发明效果
在本发明的一个实施方式中,由于根据所输入的单词的顺序,决定被指示执行的任务,因而根据顺序合适使用用于决定功能的单词。由此,根据本发明的一个实施方式,可以合适地执行使用多个单词的功能。
附图说明
图1是示出本发明的实施方式的功能执行指示系统的结构的图。
图2是表示在用户的发话是“明日的天气(明日の天気)”的情况下的各任务的得分的表。
图3是表示在用户的发话是“weather tomorrow(明日的天气)”的情况下的各任务的得分的表。
图4是示出构成本发明的实施方式的功能执行指示系统的功能执行指示服务器和声音识别服务器的硬件结构的图。
图5是示出由本发明的实施方式的功能执行指示系统执行的处理(功能执行指示方法)的流程图。
图6是将本发明的实施方式的功能执行指示程序的结构与记录介质一起示出的图。
具体实施方式
以下,结合附图对本发明的功能执行指示系统、功能执行指示方法以及功能执行指示程序的实施方式进行详细说明。另外,在附图说明中对相同要素附上相同标号,省略重复说明。
图1示出本实施方式的功能执行指示系统1。功能执行指示系统1构成为具有功能执行指示服务器10和声音识别服务器20。功能执行指示系统1是对通信终端30指示执行预先设定的1个以上的功能的系统。从功能执行指示系统1对通信终端30指示执行的功能相当于例如换乘引导、美食检索、图像检索、音乐检索、音乐播放器、日程安排、邮件、记事本、路线引导、地图检索。另外,在本实施方式中,将所执行的功能称为任务。具体地,关于换乘引导、美食检索、图像检索、音乐检索、地图检索,例如在通信终端30中显示并输出引导和检索结果的信息。
通信终端30是可以经由通信网(例如,移动体通信网)与功能执行指示服务器10和声音识别服务器20等进行通信的装置,相当于例如便携电话机或PC(Personal Computer,个人计算机)。由于上述的任务以用户的声音作为触发因素来执行,因而通信终端30具有输入用户的声音的功能。并且,通信终端30具有接收来自功能执行指示系统1的指示并执行任务的功能、例如信息的接收功能、信息处理功能以及显示功能等。
即,通信终端30具有执行1个以上(或者多个)任务的功能执行单元。具体地,通信终端30预先存储与任务对应的应用程序,通过执行(起动)所存储的应用程序来执行任务。由通信终端30执行的任务如后所述由功能执行指示服务器10指示。并且,任务的执行除了执行应用以外,还可以通过从网络取得与任务对应的信息来进行。
由功能执行指示系统1对通信终端30的任务执行指示如下进行。首先,通信终端30输入用户的声音。所输入的声音从通信终端30被发送到声音识别服务器20。声音识别服务器20从通信终端30接收声音,对接收到的声音进行声音识别。声音识别服务器20将声音识别结果即文章或单词的集合发送到通信终端30。通信终端30接收声音识别结果,并发送到功能执行指示服务器10。功能执行指示服务器10接收该声音识别结果,根据该声音识别结果决定应执行的任务,指示通信终端30执行该任务。例如,功能执行指示服务器10将表示应执行的任务的信息发送到通信终端30。通信终端30接收来自功能执行指示服务器10的指示,执行与该指示对应的任务。另外,声音识别结果即文章或单词的集合暂且不被发送到通信终端30,而可以从声音识别服务器20直接发送到功能执行指示服务器10。并且,功能执行指示服务器10和声音识别服务器20可以是一体。
例如,在通信终端30的用户发话为“明日的天气”的情况下,在功能执行指示服务器10中,判断为执行调查通信终端30当前位置处明日的天气的任务(天气预报的任务),向通信终端30指示执行天气预报的任务。另外,在如上所述执行天气预报的任务的情况下,在该任务的执行时进行通信终端30的当前位置的取得。这样,利用任务根据需要进行附加信息取得。
另外,更详细地,声音识别结果即文章或单词的集合是如后所述包含排序的多个单词的信息。即,是其内包含的多个单词的顺序(顺序、文章中的位置)已知的信息。以上是本实施方式的功能执行指示系统1的概要。
接下来,对本实施方式的功能执行指示系统1的功能进行说明。声音识别服务器20是这样的装置,该装置是输入声音、对所输入的声音进行声音识别、输出进行了声音识别的结果的声音识别单元。具体地,如上所述,声音识别服务器20从通信终端30接收声音数据。声音识别服务器20具有声音识别引擎,使用该声音识别引擎进行声音识别。声音识别自身可以利用以往的任意的声音识别方法。声音识别服务器20取得声音识别结果作为单词的集合(由多个单词构成的单词组)或者文章,发送到通信终端30。这里,声音识别结果是可以确定包含其内的单词的顺序的信息。例如,声音识别结果是将包含在该声音识别结果内的单词依据顺序连续排列的信息。
如图1所示,功能执行指示服务器10构成为具有:功能执行指示部11、单词输入部12、以及执行功能决定部13。
功能执行指示部11是对通信终端30指示执行1个或多个任务的功能执行指示单元。具体地,功能执行指示部11通过将执行任务的指令发送到通信终端30来指示执行任务。由功能执行指示部11指示执行的任务如后所述由功能决定部13决定。
并且,被指示执行的任务具有将单词作为输入(变量)的功能。将其称为任务的存储槽(slot)。存储槽是预定的。例如,如果是天气预报的任务,则设定有输入作为对象的时刻(今日、明日、一星期)或者作为对象的地域的存储槽。另外,在任务中定义有0个以上的存储槽。即,也存在没有存储槽的任务。并且,各存储槽可以对应于在没有向存储槽输入单词的情况下表示是否输入预先设定的单词(默认单词)的信息。例如,在天气预报的情况下,针对作为对象的地域,可以将由GPS(Global Positioning System,全球定位系统)等取得的用户的当前位置作为默认单词进行输入。
单词输入部12是输入包含排序的多个单词的信息的单词输入单元。具体地,单词输入部12通过从通信终端30接收表示声音识别服务器20的声音识别结果即排序后的多个单词的信息来输入上述信息。或者,在声音识别服务器20的声音识别结果是文章(输入文)的情况下,单词输入部12通过接收文章,从文章提取单词、或者将文章划分为单词来取得单词并确定单词的顺序。另外,从文章取得单词的方法可以使用利用词素词典的词素分析等的以往的任意方法。输入到单词输入部12的单词是用户对通信终端30的发话单位。即,将一次发话内包含的单词组作为一个单位来处理。单词输入部12将所取得的表示排序的多个单词的信息输入到执行功能决定部13。
执行功能决定部13是根据由单词输入部12输入的单词的顺序、决定由功能执行指示部11指示执行的任务的执行功能决定单元。例如,执行功能决定部13存储任务和预先设定的单词的对应,根据该对应和排序的单词决定被指示执行的任务。具体地,执行功能决定部13按各任务存储单词的得分(score)。各任务的单词的得分,例如在“日程安排”的任务中,“明日”的单词对应于350的得分。并且,在“天气预报”的任务中,“明日”的单词对应于100的得分,而“天气”的单词对应于200的得分。执行功能决定部13对所输入的单词进行与该单词的顺序对应的加权,考虑该加权来确定按照用户的发话单位输入的单词组的得分,根据所确定的得分决定所执行的任务。该加权是预先设定的,被存储在执行功能决定部13内。加权也可以是与单词数或所输入的单词的语言对应的加权。表示它们的对应和权重的信息例如预先由功能执行指示系统1的管理者等输入到功能执行指示服务器10来存储。
例如,假定用户的发话是“明日的天气”。在该情况下,如图2所示,用户的发话以“明日”、“的”、“天气”的顺序分为3个单词。在3个单词的情况下,基于位置的权重,例如,如图2(a)所示,最初的单词被预先设定为0.6,随后的单词被预先设定为0.8,最后的单词被预先设定为1.0。在日语的情况下,由于往往重要的单词位于文章中更后的地方,因而可以将后面的单词设定为更重的权重。在用户的发话是“明日的天气”的情况下,认为用户想知道天气,因而与位于前面的“明日”的单词相比位于后面的“天气”的单词是重要的。
然后,按各任务根据上述的对应,确定各单词的得分,使该得分乘以基于单词的位置的权重,将它们合计来计算各任务的得分。如图2(a)所示,确定各单词被加权后的得分,通过将它们合计起来而合计各任务(在图2(a)的例子中是“日程安排”、“天气预报”的任务)的得分。各任务的单词的得分根据与任务的关联程度来决定。另外,各任务的单词的得分不是以各自的各单词、而是将单词进行分类并以类别为单位(各类别)来决定。例如,可以使“换乘引导”对应于任务,使车站的类别(由车站名构成的单词的集合)对应于得分。在该情况下,确定用户的发话内包含的各单词属于哪个类别,通过所确定的类别与对应于各任务的类别的比较来计算得分。
执行功能决定部13例如将得分最高的任务决定为由功能执行指示部11指示执行的任务(或者,作为被指示执行的任务候选)。在图2(a)所示的例子的情况下,由于“天气预报”的任务的得分是260,“日程安排”的任务的得分是210,因而将得分高的“天气预报”的任务决定为被指示执行的任务。执行功能决定部13对功能执行指示部11通知所决定的任务。当进行了该通知时,从功能执行指示部11对通信终端30指示执行任务。
并且,在该指示时,也可以一并通知由单词输入部12输入的单词中、作为向所执行的任务的存储槽的输入的单词(可以输入到类别的单词)。作为向存储槽输入的单词也与任务执行指示一起从功能执行指示部11被发送到通信终端30。例如,在根据“明日的天气”的发话执行“天气预报”的任务的情况下,表示作为天气预报的对象的时刻的“明日”的单词被视为“天气预报”的存储槽的输入。并且,可以将用户的当前位置作为默认单词输入到作为天气预报的对象的地域的存储槽。由此,检索用户当前位置的明日的天气,将其结果提示给用户。另外,在任务执行方面当向存储槽的输入不足的情况下,可以在该时刻督促用户向存储槽进行输入,重新输入要输入到存储槽的单词。
如上所述,执行功能决定部13为了决定要执行的任务而按各单词计算加权的得分。这里,考虑不按单词的各位置进行加权而计算得分的例子。图2(b)示出针对图2(a)所示的得分计算例子不进行加权而计算得分的例子(本实施方式的比较例)。在如图2(b)所示不进行加权的情况下,“日程安排”的任务的得分为350,“天气预报”的任务的得分为300。在该情况下,“日程安排”的任务的得分变高,导致决定为执行“日程安排”的任务。在如上所述用户发话为“明日的天气”的情况下,认为用户想知道天气,因而在使用了未赋予基于位置的权重的得分的情况下,无法执行合适的任务(发生误判定)。
另外,在上述例子中,还考虑到由于“明日”的单词本身在“日程安排”的得分较高而成为上述结果。然而,为了使得针对“高尔夫球的结果”的发话执行体育新闻检索而针对“明日是高尔夫球”的发话执行日程安排,有必要使“明日”的单词在“日程安排”的得分较高。因此,如本实施方式那样不进行加权,而是仅单单进行单词的得分的组合(调整),则避免不了误判定。即,通过如本实施方式那样进行考虑了单词的位置(单词的顺序)的加权,可以合适地判断被指示执行的任务。
图3示出其他的例子。例如,假定用户的发话是“weather tomorrow(明日的天气)”。在该情况下,如图2所示,用户的发话以“weather(天气)”、“tomorrow(明日)”的顺序被分为2个单词。在该例子的情况下,单词的数是2个,语言是英语。在该情况下,关于基于位置的权重,例如,如图3(a)所示,最初的单词预先被设定为1.0,最后的单词预先被设定为0.5。在英语(西欧语言)的情况下,与日语不同,由于往往重要的单词位于文章中靠前的地方,因而可以使前面的单词采用更重的权重。在用户的发话是“weather tomorrow”的情况下,由于与日语的例子的情况一样认为用户想知道天气,因而与位于后面的“tomorrow”的单词相比位于前面的“weather”的单词是重要的。
在该情况下(本实施方式的例子),如图3(a)所示,由于“天气预报”的任务的得分是250,“日程安排”的任务的得分是175,因而将得分高的“天气预报”的任务决定为被指示执行的任务。即,在该情况下,判断合适执行的任务。
另一方面,在不按单词的各位置进行加权而计算得分的情况下(本实施方式的比较例),如图3(b)所示,“日程安排”的任务的得分为350,“天气预报”的任务的得分为300。在该情况下,“日程安排”的任务的得分变高,“日程安排”被决定为要执行的任务。这样,在该例子中在使用没有赋予基于位置的权重的得分的情况下,无法执行指示合适的任务(发生误判定)。以上是根据与单词的顺序对应的加权决定被指示执行的任务的执行功能决定部13的功能。
并且,执行功能决定部13可以如以下那样决定被指示执行的任务。执行功能决定部13存储有任务和预先设定的单词之间的对应。预先设定的单词是例如动词等的预先设定的类别的单词。各任务对应了与各自的任务关联深的动词或表示任务的动作。图像检索或各种检索的任务对应了“見る(watch,look…)”的动词。音乐检索或音乐播放器的任务对应了“聞く(hear,listen to…)”的动作。日程安排、邮件、记事本的任务对应有“作る(make,cook,create,write…)”的动词。路线引导、换乘引导的任务对应有“行く(go)”的动词。另外,可以对应有1个任务的多个动词,也可以使1个动词与多个任务对应。表示它们的对应的信息例如预先由功能执行指示系统1的管理者等输入到功能执行指示服务器10来存储。
执行功能决定部13从由单词输入部12所输入的单词中提取上述的预先设定的单词(动词)。执行功能决定部13根据提取出的单词中预先设定的顺序的单词和上述的对应,决定由功能执行指示部11指示执行的任务。具体地,在提取出多个动作的情况下,从该多个单词中,根据单词的顺序决定用于任务确定的单词。该决定可以是与所输入的单词的语言对应的决定。
在所输入的单词是日语的情况下,将提取出的动词中、顺序最后的动词(最后出现的独立语)用作为用于任务决定的单词。例如,在用户的发话是“作出去听音乐会的预定”的情况下,提取出“聞き(听)”、“行く(去))”、“作る(作出)”这三个动词。其中,顺序最后的动词“作る”用作用于任务决定的单词。另外,在提取出的动词是1个的情况下,将该1个单词用作用于任务决定的单词。
执行功能决定部13将与用作用于任务决定的动词对应的任务作为要决定的任务。另外,在使1个动词与多个任务对应的情况下,将该多个任务作为被执行的候选,从该候选中使用别的方法决定被指示执行的任务。例如,针对这些候选,计算基于上述的单词的得分,根据得分决定要执行的任务。在上述例子的情况下,与“作る”对应的“日程安排”、“邮件”、“记事本”的任务被决定为要执行的候选。
如上述例子那样,在日语的情况下,通常,与文章的意图关系最深的动词是最后出现的动词。这样,通过将最后出现的动词判定为文章(用户的发话)意图的主动作,可以提高指示执行的任务的判定精度。
另一方面,在英语(西欧语言)的情况下,将最初出现的动词(独立语)用作用于任务决定的动词。这是因为,在英语的情况下,通常,与文章的意图关系最深的动词是最初出现的动词。例如,在用户的发话是“Make a schedule to go a concert.”的情况下,提取出“Make”、“go”这2个动词,然而通过将最初出现的“Make”用于任务决定,可以判断为是预定作出等的任务,而不是与go对应的路线引导等的任务。
另外,上述的判断可以使用动词以外的单词进行。具体地,与上述动词一样预先设定与任务密切相关的关键字(强的关键字),可以提取该关键字并(在日语的情况下)使用最后出现的单词决定任务。例如,在用户的发话是“圧力鍋のレシピ本がみたいなぁ(想看一下压力锅的食谱书)”的情况下,作为与任务密切相关的关键字提取出“レシピ(食谱)”、“本(书)”这2个单词。“レシピ”是对应于“食谱检索”的任务的单词(关键字),“本”是对应于“书籍检索”任务的单词(关键字)。上述的用户的发话是意图检索书,上述单词中、最后的关键字“本”优先于其前面的关键字“レシピ”。并且,作为强的关键字,除了上述以外还有针对“换乘引导”的任务的“换乘”的单词。以上是根据预先设定的单词的顺序决定用于任务决定的单词、决定被指示执行的任务的执行功能决定部13的功能。以上是本实施方式的功能执行指示系统1的功能结构。
图4示出构成本实施方式的功能执行指示服务器10和声音识别服务器20的服务器装置的硬件结构。如图4所示,该服务器装置构成为包括计算机,该计算机具有:CPU(Central Processing Unit,中央处理单元)101、主存储装置即RAM(Random AccessMemory,随机存取存储器)102和ROM(Read Only Memory,只读存储器)103、用于进行通信的通信模块104、以及硬盘等的辅助存储位置105等的硬件。这些构成要素通过程序等进行动作,发挥上述的功能执行指示服务器10和声音识别服务器20的功能。以上是本实施方式的功能执行指示系统1的结构。
接下来,使用图5的流程图,对由本实施方式的功能执行指示系统1执行的处理即功能执行指示方法进行说明。在本处理中,首先,进行对用于接收本实施方式的功能执行指示系统1的功能执行指示的通信终端30的用户操作,将用于执行功能的用于的声音(发话)输入到通信终端30。接着,该声音从通信终端30被发送到声音识别服务器20。在声音识别服务器20中,该声音被接收并被输入(S01,声音识别步骤)。接着,在声音识别服务器20中,对所输入的声音进行声音识别(S02,声音识别步骤)。表示声音识别结果即单词的集合或者文章的信息从声音识别服务器20被发送到通信终端30。表示单词的集合或者文章的信息是将单词排序的信息。在通信终端30中,该信息被接收并被发送到功能执行指示服务器10。
在功能执行指示服务器10中,通过单词输入部12接收并输入声音识别结果即包含排序的多个单词的信息(S03,单词输入步骤)。所输入的信息从单词输入部12被输出到执行功能决定部13。接着,通过执行功能决定部13判断在所输入的信息内包含的排序的多个单词内是否包含有预先设定的强的关键字(提取强的关键字)(S04,执行功能决定步骤)。在判断为包含有强的关键字的情况下(S04的“是”(YES)),与该强的关键字对应的任务被决定为被指示执行的任务(S07,执行功能决定步骤)。另外,在所输入的单词内包含有多个强的关键字的情况下,从这些关键字中,根据单词的顺序决定用于被指示执行的任务的决定的关键字。
在判断为不包含强的关键字的情况下(S04的“否”(NO)),接着,通过执行功能决定部13,从所输入的信息中包含的排序的多个单词中提取预先设定的动词。与提取出的动词对应的动词被决定为被指示执行的任务的候选(执行任务的候选被限定)(S05,执行功能决定步骤)。另外,在所输入的单词内包含有多个动词的情况下,从这些动词中,根据单词的顺序决定用于决定被指示执行的任务的动词。并且,在所输入的单词中不包含预先设定的动词的情况下,不进行被指示执行的任务的候选的限定,全部的任务用作被指示执行的任务的候选。
接着,使用执行功能决定部13,针对用作被指示执行的任务的候选的任务,计算各任务的得分(S06,执行功能决定步骤)。各任务的得分,如使用图2和图3所说明那样,是根据所输入的单词并根据单词的顺序进行加权来计算的。接着,使用执行功能决定部13,将最高得分的任务决定为被指示执行的任务(S07,执行功能决定步骤)。
接着,以指示执行所决定的任务的方式,从执行功能决定部13对功能执行指示部11进行指示。此时,输入到任务的存储槽的单词也一并被输出到功能执行指示部11。接着,由接收到指示的功能执行指示部11对通信终端30指示任务执行(S08,功能执行指示步骤)。在通信终端30中,受理该指示,执行指示涉及的任务。以上是由本实施方式的功能执行指示系统1执行的处理即功能执行指示方法。
如上所述在本实施方式中,根据所输入的单词的顺序,决定被指示执行的任务。因此,用于决定任务的单词按照顺序考虑了用户的意图而合适使用。由此,根据本实施方式,可以合适进行使用多个单词的功能执行。
更具体地,优选的是,如本实施方式那样进行与单词的顺序对应的单词的加权,决定被指示执行的任务。根据该结构,即使是相同的单词,也可以根据单词的顺序,在决定任务方面合适地考虑。因此,可以可靠地进行使用多个单词的合适的任务执行。即,可以执行符合用户意图的任务。例如,如在上述的“明日的天气”的例子中所说明那样,防止执行不符合用户意图的“日程安排”的任务,执行符合用户意图的“天气预报”的任务。
并且,优选的是,如本实施方式那样提取动词等的预先设定的特定单词,决定所提取的单词中、按照单词的顺序决定被指示执行的任务的单词。根据该结构,例如,即使在所输入的单词中包含有用于判断指示执行的多个动词的情况下,也能够合适地判断指示执行的任务。即,可以执行符合用户意图的任务。例如,如在上述的“作出去听音乐会的预定”的例子中所说明那样,可以将包含符合用户意图的“日程安排”的任务在内的任务作为被指示执行的任务的候选。或者,在使用强的关键字决定被指示执行的任务的情况下,也可以决定符合用户意图的任务。
并且,可以如本实施方式那样输入声音进行声音识别,将声音识别结果作为包含所输入的单词的信息。根据该结构,能够根据用户的声音执行功能。
然而,在本实施方式中,在功能执行指示系统1中,假定了包括声音识别服务器20,然但是无需一定包括声音识别服务器20。在该情况下,进行了声音识别的结果、或者与声音识别无关的单词组或文章被输入到功能执行指示系统1。并且,在本实施方式中,功能执行指示服务器10和声音识别服务器20分开构成,然而它们可以构成为一体。在该情况下,无需经由通信终端30收发声音识别结果。并且,可以在通信终端30等的用户使用的终端配备功能执行指示服务器10或者声音识别服务器20的功能。在该情况下,该终端成为本发明的一个实施方式的功能执行指示系统。或者,可以是这样的结构:功能执行指示服务器10具有执行任务的功能,将任务的执行结果提供给通信终端30。
接下来,对用于使计算机执行上述的一系列的由功能执行指示服务器10进行的处理的功能执行指示程序进行说明。如图6所示,功能执行指示程序50被插入在计算机内而被存取,或者被存储在计算机具有的记录介质40内形成的程序存储区域41内。
功能执行指示程序50构成为具有:功能执行模块51、单词输入模块52、以及执行功能决定模块53。通过使功能执行模块51、单词输入模块52、以及执行功能决定模块53执行而实现的功能与上述的功能执行指示服务器10的功能执行指示部11、单词输入部12、以及执行功能决定部13的功能分别相同。并且,功能执行指示程序50可以具有与声音识别服务器20的功能对应的模块。
另外,功能执行指示程序50可以采用这样的结构:其一部分或全部经由通信线路等的传送介质被传送,由其它设备接收并记录(包含安装)。并且,功能执行指示程序50的各模块可以安装在多个计算机的任一方内,而不是1个计算机。在该情况下,使用该多个计算机的计算机系统进行上述的一系列的功能执行指示程序50的处理。
标号说明
1:功能执行指示系统;10:功能执行指示服务器;11:功能执行指示部;12:单词输入部;13:执行功能决定部;20:声音识别服务器;101:CPU:102:RAM;103:ROM;104:通信模块;105:辅助存储装置;30:通信终端;40:记录介质;41:程序存储区域;50:功能执行指示程序;51:功能执行模块;52:单词输入模块;53:执行功能决定模块。
Claims (5)
1.一种功能执行指示系统,其中,所述功能执行指示系统具有:
功能执行指示单元,其指示执行1个以上的功能;
单词输入单元,其输入包括排序了的多个单词的信息;以及
执行功能决定单元,其根据由所述单词输入单元所输入的单词的顺序,从所述1个以上的功能中决定由所述功能执行指示单元指示执行的功能,
所述执行功能决定单元按照所述1个以上的功能的每个功能预先存储单词的得分,对由所述单词输入单元所输入的单词的得分进行与该单词相对于所输入的全体信息的顺序对应的加权,对加权后的单词的得分进行合计而计算出该每个功能的得分,根据该得分,从所述1个以上的功能中决定由所述功能执行指示单元指示执行的功能。
2.根据权利要求1所述的功能执行指示系统,其中,所述执行功能决定单元存储有所述1个以上的功能和预先设定的单词之间的对应,从所述单词输入单元所输入的单词中提取预先设定的单词,根据该对应和提取出的单词的由所述单词输入单元输入时的顺序,从所述1个以上的功能中决定由所述功能执行指示单元指示执行的功能。
3.根据权利要求2所述的功能执行指示系统,其中,所述预先设定的单词是动词。
4.根据权利要求1~3中任一项所述的功能执行指示系统,其中,所述功能执行指示系统还具有声音识别单元,所述声音识别单元输入声音,对所输入的声音进行声音识别,将进行了声音识别的结果输入到所述单词输入单元。
5.一种功能执行指示方法,其中,所述功能执行指示方法包括:
功能执行指示步骤,指示执行1个以上的功能;
单词输入步骤,输入包含排序了的多个单词的信息;以及
执行功能决定步骤,根据在所述单词输入步骤中所输入的单词的顺序,从所述1个以上的功能中决定在所述功能执行指示步骤中指示执行的功能,
在所述执行功能决定步骤中,按照所述1个以上的功能的每个功能预先存储单词的得分,对所输入的单词的得分进行与该单词相对于所输入的全体信息的顺序对应的加权,对加权后的单词的得分进行合计而计算出该每个功能的得分,根据该得分,从所述1个以上的功能中决定指示执行的功能。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-137844 | 2012-06-19 | ||
JP2012137844A JP5819261B2 (ja) | 2012-06-19 | 2012-06-19 | 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム |
PCT/JP2013/064767 WO2013190957A1 (ja) | 2012-06-19 | 2013-05-28 | 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104335160A CN104335160A (zh) | 2015-02-04 |
CN104335160B true CN104335160B (zh) | 2017-05-24 |
Family
ID=49768560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380027998.8A Expired - Fee Related CN104335160B (zh) | 2012-06-19 | 2013-05-28 | 功能执行指示系统、以及功能执行指示方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9361063B2 (zh) |
EP (1) | EP2863300B1 (zh) |
JP (1) | JP5819261B2 (zh) |
CN (1) | CN104335160B (zh) |
WO (1) | WO2013190957A1 (zh) |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10013978B1 (en) * | 2016-12-30 | 2018-07-03 | Google Llc | Sequence dependent operation processing of packet based data message transmissions |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101749009B1 (ko) | 2013-08-06 | 2017-06-19 | 애플 인크. | 원격 디바이스로부터의 활동에 기초한 스마트 응답의 자동 활성화 |
MY179900A (en) | 2013-08-29 | 2020-11-19 | Panasonic Ip Corp America | Speech recognition method and speech recognition apparatus |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
AU2015266863B2 (en) | 2014-05-30 | 2018-03-15 | Apple Inc. | Multi-command single utterance input method |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
JP2016061954A (ja) * | 2014-09-18 | 2016-04-25 | 株式会社東芝 | 対話装置、方法およびプログラム |
US20160104476A1 (en) * | 2014-10-09 | 2016-04-14 | International Business Machines Corporation | Cognitive Security for Voice Phishing Activity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
JP7335794B2 (ja) * | 2019-11-20 | 2023-08-30 | シュナイダーエレクトリックホールディングス株式会社 | 情報処理装置及び設定装置 |
US11043220B1 (en) | 2020-05-11 | 2021-06-22 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003162524A (ja) * | 2001-11-26 | 2003-06-06 | Toyota Central Res & Dev Lab Inc | 言語処理装置 |
CN101795318A (zh) * | 2009-01-05 | 2010-08-04 | 三星电子株式会社 | 移动终端和用于提供该移动终端的应用程序的方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000356999A (ja) | 1999-06-16 | 2000-12-26 | Ishikawajima Harima Heavy Ind Co Ltd | 音声によるコマンド入力装置及び方法 |
US6526382B1 (en) * | 1999-12-07 | 2003-02-25 | Comverse, Inc. | Language-oriented user interfaces for voice activated services |
US6836760B1 (en) * | 2000-09-29 | 2004-12-28 | Apple Computer, Inc. | Use of semantic inference and context-free grammar with speech recognition system |
JP2003202888A (ja) | 2002-01-07 | 2003-07-18 | Toshiba Corp | 無線通信機能付きヘッドセットおよびこれを用いた音声処理システム |
US7603267B2 (en) * | 2003-05-01 | 2009-10-13 | Microsoft Corporation | Rules-based grammar for slots and statistical model for preterminals in natural language understanding system |
JP4157418B2 (ja) * | 2003-05-02 | 2008-10-01 | 日本放送協会 | データ閲覧支援装置、データ閲覧方法及びデータ閲覧プログラム |
JPWO2005064592A1 (ja) * | 2003-12-26 | 2007-12-20 | 株式会社ケンウッド | 機器制御装置、音声認識装置、エージェント装置、車載機器制御装置、ナビゲーション装置、オーディオ装置、機器制御方法、音声認識方法、エージェント処理方法、車載機器制御方法、ナビゲーション方法、オーディオ装置制御方法及びプログラム |
US7949536B2 (en) * | 2006-08-31 | 2011-05-24 | Microsoft Corporation | Intelligent speech recognition of incomplete phrases |
US8359190B2 (en) * | 2006-10-27 | 2013-01-22 | Hewlett-Packard Development Company, L.P. | Identifying semantic positions of portions of a text |
JP2009198871A (ja) | 2008-02-22 | 2009-09-03 | Toyota Central R&D Labs Inc | 音声対話装置 |
JP5638210B2 (ja) * | 2009-08-27 | 2014-12-10 | 京セラ株式会社 | 携帯電子機器 |
JP5146429B2 (ja) * | 2009-09-18 | 2013-02-20 | コニカミノルタビジネステクノロジーズ株式会社 | 画像処理装置、音声認識処理装置、音声認識処理装置の制御方法、およびコンピュータプログラム |
US8762156B2 (en) * | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
-
2012
- 2012-06-19 JP JP2012137844A patent/JP5819261B2/ja active Active
-
2013
- 2013-05-28 US US14/395,851 patent/US9361063B2/en active Active
- 2013-05-28 EP EP13807663.3A patent/EP2863300B1/en not_active Not-in-force
- 2013-05-28 WO PCT/JP2013/064767 patent/WO2013190957A1/ja active Application Filing
- 2013-05-28 CN CN201380027998.8A patent/CN104335160B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003162524A (ja) * | 2001-11-26 | 2003-06-06 | Toyota Central Res & Dev Lab Inc | 言語処理装置 |
CN101795318A (zh) * | 2009-01-05 | 2010-08-04 | 三星电子株式会社 | 移动终端和用于提供该移动终端的应用程序的方法 |
Also Published As
Publication number | Publication date |
---|---|
US20150142448A1 (en) | 2015-05-21 |
EP2863300A4 (en) | 2016-03-02 |
CN104335160A (zh) | 2015-02-04 |
JP2014002586A (ja) | 2014-01-09 |
JP5819261B2 (ja) | 2015-11-18 |
EP2863300A1 (en) | 2015-04-22 |
WO2013190957A1 (ja) | 2013-12-27 |
US9361063B2 (en) | 2016-06-07 |
EP2863300B1 (en) | 2019-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104335160B (zh) | 功能执行指示系统、以及功能执行指示方法 | |
US9971766B2 (en) | Conversational agent | |
CN109815314B (zh) | 一种意图识别方法、识别设备及计算机可读存储介质 | |
CN107657048B (zh) | 用户识别方法及装置 | |
US10666792B1 (en) | Apparatus and method for detecting new calls from a known robocaller and identifying relationships among telephone calls | |
CN107832286A (zh) | 智能交互方法、设备及存储介质 | |
CN108447471A (zh) | 语音识别方法及语音识别装置 | |
CN110297988A (zh) | 基于加权LDA和改进Single-Pass聚类算法的热点话题检测方法 | |
US20140223572A1 (en) | Message service providing method, and apparatus and system therefor | |
CN109074397B (zh) | 信息处理系统和信息处理方法 | |
CN103365834B (zh) | 语言歧义消除系统及方法 | |
CN107678629A (zh) | 应用程序检索方法 | |
CN104380374A (zh) | 功能执行指示系统、功能执行指示方法及功能执行指示程序 | |
CN108121455A (zh) | 识别纠正方法及装置 | |
CN104750677A (zh) | 语音传译装置、语音传译方法及语音传译程序 | |
CN108153875B (zh) | 语料处理方法、装置、智能音箱和存储介质 | |
US10593323B2 (en) | Keyword generation apparatus and keyword generation method | |
JP6085149B2 (ja) | 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム | |
CN116628142B (zh) | 知识检索方法、装置、设备及可读存储介质 | |
CN113076397A (zh) | 意图识别方法、装置、电子设备及存储介质 | |
CN111373473B (zh) | 一种电子设备进行语音识别方法及电子设备 | |
JP6821542B2 (ja) | 複数種の対話を続けて実施可能な対話制御装置、プログラム及び方法 | |
CN105701119A (zh) | 检索过滤方法及其处理装置 | |
CN109818737B (zh) | 个性化口令生成方法及系统 | |
CN112668334B (zh) | 实体识别方法以及电子设备、存储装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170524 Termination date: 20190528 |
|
CF01 | Termination of patent right due to non-payment of annual fee |