CN110503950A - 判定装置、电子设备、响应系统、判定装置的控制方法 - Google Patents

判定装置、电子设备、响应系统、判定装置的控制方法 Download PDF

Info

Publication number
CN110503950A
CN110503950A CN201910410774.4A CN201910410774A CN110503950A CN 110503950 A CN110503950 A CN 110503950A CN 201910410774 A CN201910410774 A CN 201910410774A CN 110503950 A CN110503950 A CN 110503950A
Authority
CN
China
Prior art keywords
response
identification information
information
voice
decision maker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910410774.4A
Other languages
English (en)
Inventor
后田成文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of CN110503950A publication Critical patent/CN110503950A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • G10L15/05Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/34Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Telephonic Communication Services (AREA)

Abstract

一种判定装置,其能够防止来自电视或收音机等的输出语音的误反应。判定装置(服务器控制部(10))具备:信息取得部(102),其取得识别信息;以及响应判定部(103),其判定是否执行对应于识别信息的响应,响应判定部(103)在识别信息的取得前或自取得识别信息的规定时间内,取得与识别信息相同的内容的第二识别信息的情况下,判定为不执行对应于识别信息的响应。

Description

判定装置、电子设备、响应系统、判定装置的控制方法
技术领域
本发明涉及一种判定是否需要创建电子设备输出的消息的判定装置等。
背景技术
一直以来,已知有取得用户的发声进行语音识别,并输出对应于该语音识别的结果的响应消息的电子设备。关于这样的电子设备,已研究出多种用于在适当的时机执行语音识别以及响应消息的输出的技术。
例如,专利文献1公开了以特定的语句的发声为触发开始语音识别的语音识别装置。该语音识别装置将通常的对话中出现频率低的语句、不是发声者的母语的语句、包含语音操作命令的意思的语句等有限的语句识别为所述特定的语句。由此,能够防止以通常的对话为触发而开始发声者不希望进行的语音识别。
现有技术文献
专利文献
专利文献1:日本公开专利公报“日本特开2004-301875号公报”
发明内容
发明要解决的问题
但是,在所述专利文献1所记载的技术中,在来自电视或收音机等的输出语音中包含所述特定的语句的情况下,存在有在发声者不希望的时机语音识别装置开始语音识别的可能性。
例如,可以考虑从电视或收音机输出各种情况下的对话的语音。因此,即使将特定的语句简单地设定为在一般的对话中出现频率低的语句,也不能完全防止误识别。此外,例如,来自电视或收音机的输出语音中很可能包含外语的语句。因此,即使将特定的语句设定为对发声者而言为外语语句的情况下,也不能完全防止误识别。
并且,在输出响应消息的电子设备的情况下,基于错误开始的语音识别的结果进行响应消息的输出。换言之,电子设备引起误反应。
本公开的一个方式是鉴于所述问题而完成的,其目的在于,实现能够防止来自电视或收音机的输出语音引起的误反应的判定装置等。
用于解决问题的方案
为了解决所述的课题,本发明的一个方式所涉及的判定装置,判定是否需要具备语音输入装置的电子设备作出响应,所述判定装置的特征在于,具备:信息取得部,其取得将针对输入至所述语音输入装置的语音的语音识别的结果、与输入该语音的时刻即语音输入时刻或进行所述语音识别的时刻即识别时刻建立关联的识别信息;及响应判定部,其判定是否执行对应于所述识别信息的响应,所述响应判定部在所述识别信息的取得前或自取得所述识别信息的规定时间内,取得与所述识别信息相同的内容的第二识别信息的情况下,判定为不执行对应于所述识别信息的所述响应。
发明效果
根据本发明的一个方式,能够防止来自电视或收音机等的输出语音引起的误反应。
附图说明
图1为表示本发明的第一实施方式所涉及的响应系统中包含的、对话机器人以及云服务器的主要部分构成的框图。
图2为表示所述云服务器的存储部中保存的、判定对象数据库的数据结构的一个示例的图。
图3为表示所述对话机器人的动作概要的图。
图4为表示所述响应系统中的响应与否判定处理的流程的流程图。
图5为表示本发明的第二实施方式所涉及的响应系统中包含的、对话机器人以及云服务器的主要部分构成的框图。
图6为表示本发明的第三实施方式所涉及的响应系统中包含的对话机器人的主要部分构成的框图。
图7为表示所述响应系统中的响应与否判定处理的流程的流程图。
图8为表示本发明的第四实施方式所涉及的响应系统中包含的、对话机器人以及云服务器的主要部分构成的框图。
图9为表示所述云服务器的存储部中保存的、判定对象数据库的数据结构的一个示例的图。
图10为表示所述响应系统中的响应与否判定处理的流程的流程图。
具体实施方式
本公开涉及一种根据某输入语音的语音识别的结果以及时机,判定是否需要对该输入语音作出响应的响应系统。以下,参照附图说明本公开的实施方式的示例。
〔第一实施方式〕
《装置的主要部分构成》
参照图1~图4说明本公开的第一实施方式。图1为表示本实施方式所涉及的响应系统100中包含的对话机器人2以及云服务器1的主要部分构成的框图。响应系统100包含至少1台云服务器1和多台对话机器人(电子设备)2。在图示的示例中,对话机器人2为两台,但是对话机器人的台数并不特别限定,只要其对话机器人2为多台即可。此外,图1中的两台对话机器人2具备同样的结构。因此,针对一侧的对话机器人2,省略揭示详细的构成。
(对话机器人2的主要部分构成)
对话机器人2为通过回复对应于用户的发声的响应来与该用户对话的机器人。如图所示,对话机器人2包含控制部(判定装置)20、通信部21、麦克风(语音输入装置)22、以及扬声器(响应部)23。
通信部21进行与云服务器1的通信。麦克风22将对话机器人2的周围的声音作为输入语音输入至控制部20。
控制部20综合控制对话机器人2。控制部20当取得从麦克风22输入的语音时,取得输入该语音的时刻(语音输入时刻)。语音输入时刻的计时方法并不特别限定,但例如也可以基于控制部20的内部时钟等进行计时。控制部20将取得的语音经由通信部21发送至云服务器1。此时,控制部20也可以对该语音附加语音输入时刻和能够确定本装置(对话机器人2)的辨别信息(机器人辨别信息)并发送至云服务器1。此外,控制部20将经由通信部21从云服务器1接收到的响应消息(后述)输出至扬声器23。扬声器23根据控制部20的控制语音输出响应消息。
另外,在本实施方式中,对话机器人2将响应作为语音消息进行输出。然而,对话机器人2也可以以语音消息以外的方法执行对用户的发声的响应。例如,对话机器人2除扬声器23以外,或者也可以替代扬声器23而具备显示器,使显示器显示消息。或者,对话机器人2也可以具备可动部以及马达,通过手势表示响应。或者,对话机器人2也可以在用户可观察那样的位置具备由LED(light emitting diode)等构成的灯,并通过光的闪烁表示响应。
(云服务器1的主要部分构成)
云服务器1判定是否需要各对话机器人2作出响应。云服务器1从多台对话机器人2收集语音,并分别执行语音识别,根据该语音识别的结果和语音识别的时机判定响应与否。另外,在本实施方式中,响应系统100如图所示,使用利用了云网络的云服务器1。然而,响应系统100也可以使用通过有线或无线与对话机器人2通信连接的单一或多台服务器,以替代云服务器1。在以下的实施方式中也是同样的。
云服务器1如图所示具备服务器控制部(判定装置)10、服务器通信部11、以及存储部12。服务器通信部11进行与对话机器人2的通信。存储部12保存云服务器1所需的各种数据。
具体而言,存储部12至少存储判定对象数据库(DB)121。此外,存储部12存储响应消息的创建所需的数据(例如,响应消息的模版或固定文本等)。针对判定对象DB121的数据结构将在下文中详细叙述。
服务器控制部10综合控制云服务器1。服务器控制部10包含:语音识别部101、信息取得部(识别信息保存部)102、响应判定部(判定结果发送部)103、以及响应创建部104。服务器控制部10经由服务器通信部11从对话机器人2接收语音、与该语音建立关联的语音输入时刻以及机器人辨别信息。如图所示,对话机器人2有多台,因此服务器控制部10接收来自各对话机器人2的语音、语音输入时刻、以及机器人辨别信息。并且,服务器控制部10针对各语音执行以下说明的处理。
语音识别部101针对从对话机器人2接收到的语音,执行语音识别。语音识别的方法并不特别限定。在本实施方式中,作为语音识别,将语音中包含的语句转换为字符串。语音识别部101将语音识别的结果(以下,仅称作识别结果)与作为语音识别的对象的语音的机器人辨别信息建立关联,并发送至响应创建部104。
语音识别部101在执行语音识别时,创建将识别结果与语音输入时刻建立关联的识别信息。语音识别部101将识别信息发送至信息取得部102。
信息取得部102基于从语音识别部101取得的识别信息,更新存储部12的判定对象DB121。此时,信息取得部102根据当前取得的表示与识别信息相同识别结果以及语音输入时刻的识别信息是否保存于判定对象DB121,来改变判定对象DB121的更新方法。以下,说明判定对象DB121的详细的数据结构以及信息取得部102的判定对象DB121的更新方法。
(判定对象DB)
图2为表示判定对象DB121的数据结构的一个示例的图。判定对象DB121为将识别信息集成而形成的数据库、且为用于判定是否需要创建响应消息而参照的数据库。判定对象DB121至少包含表示识别结果的信息和表示语音输入时刻的信息。
在图示的示例中,判定对象DB121包含:“ID”列、“日期”列、“时刻”列、“语言”列、“识别结果”列、以及“计数”列。该图的一个日志记录表示针对一个识别信息的信息。“日期”列、“时刻”列、“语言”列、“识别结果”列中存储的信息是语音识别部101创建的识别信息本身。另外,“语言”列不是必须的信息。此外“日期”列与“时刻”列也可以为一体。
在“ID”列中存储有用于唯一确定识别信息的辨别码。在“日期”列以及“时刻”列中分别存储有语音输入时刻中的年月日以及时刻。在“语言”列中存储有将识别结果分类成限定的语言中的任意语言的情况的类型。该类型也可以在语音识别部101创建识别信息时确定,也可以响应判定部103根据识别结果的字符串来确定。在“识别结果”列中存储有识别结果的字符串。在“计数”列中存储有取得相同识别信息的次数。
信息取得部102当取得识别信息,检索判定对象DB121是否具有表示与该识别信息相同识别结果以及语音输入时刻的日志记录。在不存在该日志记录的情况下,信息取得部102向判定对象DB121追加针对取得的识别信息的日志记录。在追加的日志记录的“ID”列中存储有新的辨别码,在“计数”列中存储有取得次数、即“1”。
另外,在本实施方式中,在称作“相同”的情况下,不仅包含完全一致,还包含在预先设定的缓冲的范围内一致(即,大致相同或部分一致)的情况。具体而言,例如,如果识别结果的字符串的一致比率为预先设定的阈值以上,则也可以判定为“相同的识别结果”。此外,将语音输入时刻进行比较,在两者的区别处于预先设定的时间范围内的情况下,也可以判定为“相同时刻”。在以下的实施方式中也是同样的。
另一方面,在存在有与表示信息取得部102取得的识别信息相同识别结果以及语音输入时刻的日志记录的情况下,信息取得部102对该日志记录的“计数”列的数字进行计数(count up)。例如,信息取得部102取得的识别信息表示与ID=2的识别信息相同识别结果以及语音输入时刻。在该情况下,信息取得部102将ID=2的日志记录的取得次数进行一次计数,从4189成为4190。信息取得部102在判定对象DB121的更新结束时,将从语音识别部101取得的识别信息发送至响应判定部103。
另外,判定对象DB121的各日志记录在经过规定时间(例如,10秒)的情况下,也可以自动删除。由此,能够防止判定对象D B121的日志记录数伴随着时间庞大化,因此能够缩短从语音输入到响应消息的输出的时间(即,对话机器人2的响应所需的时间)。
响应判定部103根据从信息取得部102取得的识别信息,判定是否创建响应消息(即,是否使对话机器人2执行响应)。具体而言,响应判定部103在识别信息的取得前或自取得该识别信息的规定时间内,表示与该取得的识别信息相同内容(至少相同识别结果以及语音输入时刻)的另一识别信息(第二识别信息)未存在于判定对象DB121的情况下,判定为创建响应消息。例如,响应判定部103在判定对象DB121中,表示与所取得的识别信息相同内容的日志记录的计数为1的情况下,可以判定为不存在第二识别信息。另一方面,响应判定部103在识别信息的取得前或自取得该识别信息的规定时间内第二识别信息存在于判定对象DB121的情况下,判定为不创建响应消息。
在此,响应判定部103在从信息取得部102取得识别信息后,以规定的时机执行判定。例如,响应判定部103在接收识别信息之后待机规定时间(例如,1秒程度),之后执行判定。
由此,响应判定部103除在所述识别信息的取得前已经取得(以及反映判定对象DB121的更新)第二识别信息的情况以外,在从当前取得的识别信息的取得到规定时间内,信息取得部102取得第二识别信息的情况下,也能够判定为不创建对应于识别信息的响应消息。
例如针对电视节目的语音等,在相同时刻于其他的位置(从其他的电视)实施相同的语音输出。在该情况下,多个对话机器人2大致同时取得语音并发送至云服务器1,但存在有因对话机器人2而产生稍微的时间滞后的可能性。响应判定部103构成为根据信息取得部102中的判定对象DB121的更新操作在规定时间后实施判定,由此即使在产生这样的时间滞后的情况下,也能够在响应判定部103中实施准确的判定。另外,也可以不使响应判定部103中的判定的执行延迟,而使从信息取得部102向响应判定部103的识别信息的发送延迟。响应判定部103将判定结果发送至响应创建部104。
另外,响应判定部103也可以在表示与取得的识别信息相同识别结果以及语音输入时刻的日志记录存在于判定对象DB121且该日志记录的计数小于规定值的情况下,判定为创建响应,在规定值以上的情况下,判定为不创建响应消息。
或者,响应判定部103也可以在信息取得部102更新判定对象DB121之后,在规定时间(例如,1秒)内不实施判定而进行待机。并且,也可以是,在待机中,在判定对象DB121的更新后的识别信息的日志记录(即,与响应判定部103取得的识别信息对应的日志记录)的“计数”未增加的情况下,判定为创建响应,在增加的情况下,判定为不创建响应。
响应创建部104创建对应于识别结果的响应消息,并向与该识别结果建立关联的机器人辨别信息所示的机器人发送。响应创建部104在从响应判定部103接收到创建响应消息的主旨的判定结果的情况下,参照存储部12的响应消息的模版等,创建对应于识别结果的响应消息。响应创建部104将创建的响应消息经由服务器通信部11发送至对话机器人2。此时,响应创建部104向与识别结果建立关联的机器人辨别信息所示的对话机器人2发送响应消息。由此,能够使对话机器人2回复与某对话机器人2中取得的语音对应的响应消息。
《对话机器人2的动作概要》
接着,说明本实施方式所涉及的响应系统100的动作概要。图3中示出响应系统100中包含的对话机器人的动作概要。图中的白色空心箭头表示时间的流逝。此外,在图示的示例中,在家A和家B中分别配置有1台对话机器人2。此外,在图示的示例中云服务器1处于远处而未图示。
假设在时刻11:15:30,如图示那样从电视语音输出“你好”。在该情况下,各家的对话机器人2取得“你好”这样的语音,并分别发送至云服务器1。云服务器1对各个语音进行语音识别。在图示的示例中,相同内容的语音从家A以及家B的两台对话机器人2大致同时发送至云服务器1,因此这些识别信息的识别结果以及语音输入时刻相同。信息取得部102基于这些识别信息更新判定对象DB121。
之后在规定时间内,响应判定部103针对源自各对话机器人2的识别信息,判定响应与否。如上所述,相同识别结果以及语音输入时刻的日志记录存在于判定对象DB121,因此响应判定部103针对各识别信息,判定为不创建响应消息。因此,响应创建部104不创建响应消息,由此家A以及家B双方的对话机器人2均保持不进行语音输出的状态。
另一方面,假设在时刻13:07:10,在家A中用户以“你好”与对话机器人2攀谈。在该情况下,仅从家A的对话机器人2,语音被发送至云服务器1。在该情况下,具有与创建的识别信息相同识别结果以及语音输入时刻的日志记录在识别信息的取得前或自取得该识别信息的规定时间内未存在于判定对象DB121。因而,响应判定部103判定为创建响应消息,响应创建部104将与“你好”这样的识别结果对应的响应消息“你好”发送至对话机器人2。并且,对话机器人2从扬声器23语音输出“你好”。
而且,假设在时刻16:43:50从电视语音输出“明日的天气是”。在该情况下,与时刻11:15:30的情况同样地,相同内容的语音从家A以及家B的两台对话机器人2大致同时发送至云服务器1,因此这些识别信息的识别结果以及语音输入时刻相同。因而,响应判定部103针对各识别信息,判定为不创建响应消息,响应创建部104不创建响应消息。由此家A以及家B双方的对话机器人2均保持不进行语音输出的状态。
《处理的流程》
最后,参照图4说明判定响应系统100中的响应消息的创建与否的处理(响应与否判定处理)的流程。图4为表示响应系统100中的响应与否判定处理的流程的流程图。另外,在图4的示例中,示出针对某输入语音的(针对输入一次的)响应与否判定处理的流程。
对话机器人2的控制部20在从麦克风22输入周围的语音时,取得语音输入时刻。控制部20使输入的语音与语音输入时刻以及机器人辨别信息建立关联并发送至云服务器1。云服务器1的服务器控制部10取得该语音、语音输入时刻、以及机器人辨别信息(S10)。语音识别部101针对取得的语音执行语音识别(S12),将识别结果与语音输入时刻建立关联并创建识别信息(S14)。语音识别部101向信息取得部102发送识别信息。
信息取得部102当接收识别信息时(信息取得步骤),更新判定对象DB121,并将该识别信息发送至响应判定部103。响应判定部103在接收识别信息时,在规定时间后,判定该识别信息是否与判定对象DB121的识别信息(第二识别信息)相同(S16、响应判定步骤)。在相同的情况(S16中为是)下,响应判定部103判定为不创建响应消息(S22)。另一方面,在不相同的情况(S16中为否)下,响应判定部103判定为创建响应消息(S18),响应创建部104创建对应于识别结果的响应消息(S20)。响应创建部104将创建的响应消息发送至机器人辨别信息所示的对话机器人2,对话机器人2从扬声器23输出该响应消息。
根据所述的处理,云服务器1的响应判定部103在同时获取相同内容的识别结果的情况下,针对表示该识别结果的识别信息,判定为不创建对应于该识别信息的所述响应消息(即,不使对话机器人2执行响应)。
针对电视、收音机的语音等,在多个位置(从其他的电视或收音机)以相同时刻实施相同的语音输出。因而可认为多个对话机器人2大致同时取得相同的内容的语音,并发送至云服务器1。根据所述的结构,在这样的情况下,判定为不执行响应,因此能够防止对来自电视或收音机等的输出语音的误反应。
本实施方式所涉及的云服务器1的语音识别部101也可以在实施语音识别时,取得进行了语音识别的时刻即识别时刻。识别时刻例如基于云服务器1的计时部(未图示)或服务器控制部10的控制时钟等来取得。并且,语音识别部101也可以将使语音与识别时刻建立关联的信息作为识别信息,而不与语音输入时刻建立关联。在以下的实施方式中也是同样的。
此时,判定对象DB121的在“日期”列以及“时刻”列中分别存储识别时刻中的年月日以及时刻。此外,在该情况下,对话机器人2的控制部20也可以不取得语音输入时刻,而将语音与机器人辨别信息建立关联而发送至云服务器1。
〔第二实施方式〕
在本公开所涉及的响应系统中,也可以对话机器人实施语音识别以及响应消息的创建。以下,参照图5说明本公开的第二实施方式。并且,为了便于说明,对与在上述实施方式中说明的构件具有相同功能的构件,标注相同的附图标记,并不再重复说明。在以下的实施方式中也是同样的。
图5为表示本实施方式所涉及的响应系统200中包含的对话机器人4以及云服务器3的主要部分构成的框图。云服务器3不具备语音识别部101以及响应创建部104这一点,与云服务器1不同。对话机器人4在具备存储部24、语音识别部201、以及响应创建部202这一点,与对话机器人2不同。
存储部24存储响应消息的创建所需的数据(例如,响应消息的模版或固定文本等)。语音识别部201具备与第一实施方式中说明的语音识别部101同样的功能,此外,响应创建部202具备与第一实施方式中说明的响应创建部104同样的功能。在本实施方式所涉及的响应系统200中,对话机器人4的控制部20在从麦克风22输入语音时,取得语音输入时刻,并且由语音识别部201执行语音识别。语音识别部201创建将语音识别的结果与语音输入时刻建立关联的识别信息。语音识别部201将识别信息与机器人辨别信息建立关联,并发送至云服务器3。此外,语音识别部201将识别信息发送至响应创建部202。
云服务器3的信息取得部102从对话机器人4取得识别信息,并执行与第一实施方式中说明的处理同样的处理。响应判定部103也执行与第一实施方式同样的判定,并将判定结果发送至机器人辨别信息所示的对话机器人4。对话机器人4的响应创建部202在接收到创建响应消息的主旨的判定结果的情况下,参照存储部24中存储的响应消息的模版等,创建响应消息。控制部20从扬声器23输出创建的响应消息。
在用户与对话机器人4实时对话的情况下,重要的是迅速实施响应与否的判定,时机良好地实施来自对话机器人4的响应输出。根据以上的处理,响应系统200的云服务器3不实施语音识别以及响应消息的创建,仅实施响应与否的判定。因而,能够减轻要求针对多个对话机器人4的处理的云服务器3的负荷。此外,根据以上的处理,云服务器3仅向对话机器人4发送可否响应的判定结果即可。因而,与在云服务器3中确定响应内容并将表示该内容的信息发送至对话机器人4的情况相比,能够削减通信数据的容量而减轻通信所涉及的负荷。因此,本实施方式所涉及的云服务器3能够更高速地执行各种处理。
例如,云服务器3中的是否需要响应的判定所涉及的处理速度也变快。因而,对话机器人4也能够更迅速地输出响应消息。
〔第三实施方式〕
在根据本公开的响应系统中,对话机器人可以不通过云服务器,而在对话机器人之间发送和接收识别信息。并且,在从另一对话机器人接收的识别信息(其他识别信息)与由本装置生成的识别信息相同的情况下,对话机器人可以不创建响应消息。
以下,参照图6及图7说明本公开的第三实施方式。图6为表示本实施方式所涉及的响应系统300中包含的对话机器人5的主要部分构成的框图。如图所示,响应系统300可以不包括云服务器1。会话机器人5在对话机器人4的构成的基础上,还包括响应判定部203。
图7为表示响应系统300中的响应与否判定处理的流程的流程图。图7的示例也与图4的示例相同,示出针对某输入语音的(针对输入一次的)响应与否判定处理的流程。
对话机器人5通过麦克风22取得周围的声音(S30),并且由语音识别部201进行语音识别(S32)和识别信息的创建(S34)。对话机器人5与其他对话机器人5通信(S36),并将创建的识别信息发送到每个其他对话机器人5。此外,从其他对话机器人5接收由其他对话机器人5创建的识别信息(其他识别信息)(S38)。
控制部20的响应判定部203判定所接收的识别信息(其他识别信息)是否与所创建的识别信息相同(S40)。在相同的情况下(S40中为是),响应判定部203判定为不创建响应消息(S46)。另一方面,在不相同的情况下(S40中为否),响应判定部203判定为创建响应消息(S42),响应创建部202创建对应于识别结果的响应消息(S44)。控制部20从扬声器23输出创建的响应消息。
根据上述处理,即使不存在诸如在其他实施例中记载的云服务器1或3的服务器,通过在对话机器人5之间发送和接收识别信息并且对照彼此的识别信息,可以判定是否同时获得相同内容的识别结果。因此,即使没有构建包括云服务器1或3的大规模系统或网络,也可以防止由于仅通过会话机器人5从电视等输出语音引起的误反应。
〔第四实施方式〕
参照图8至图10说明本公开的第四实施方式。图8为表示本实施方式所涉及的响应系统400中包含的对话机器人2以及云服务器6的主要部分构成的框图。响应系统400包含1台以上的云服务器6和1台以上对话机器人2。在图示的示例中,对话机器人2为两台,但是对话机器人2的台数并不特别限定。例如,对话机器人2也可以为1台。
对话机器人2为通过回复对应用户的发声的响应来与该用户对话的机器人。对话机器人2的构成与图1相同。并且,对话机器人2为具备以下说明的云服务器6的功能的装置,也可以是能够单独(无云服务器6)进行动作的装置。
云服务器6判定对话机器人2的响应的需要与否。云服务器6如图所示具备服务器控制部(判定装置)10、服务器通信部11、以及存储部12。
服务器通信部11进行与对话机器人2的通信。并且,在响应系统400中,仅一个对话机器人2与云服务器6通信时,服务器通信部11可以不接收机器人辨别信息。另一方面,在响应系统400中存在多台对话机器人2的情况下,服务器控制部10除了接收来自各对话机器人2的语音以及语音输入时刻以外,还接收机器人辨别信息。
存储部12存储云服务器1所需的各种数据。具体而言,存储部12至少存储判定对象数据库(DB)122。此外,存储部12存储响应消息的创建所需的数据(例如,响应消息的模版或固定文本等)。
(判定对象DB)
判定对象DB122是用于判定是否需要创建响应消息而参照的DB,在该DB中存储有一个以上的判定信息。在此,判定信息是指,将实施语音输入的预定的时刻或时间段、与表示预测的语音识别的结果的至少一部分的规定的关键词建立关联的信息。
图9为表示判定对象DB122的数据结构的一个示例的图。在图示的示例中,判定对象DB122包含“ID”列、“日期”列、“时刻”列、“关键词”列。该图的1条日志记录表示一个判定信息。另外,“日期”列与“时刻”列也可以是一体的。此外,也可以通过“日期”列以及“时刻”列的信息指定表示从某时刻至某时刻的时间段,而不是一个点的时刻。
在“ID”列中存储有用于唯一确定判定信息的辨别码。另外,在判定对象DB122中“ID”列的信息不是必须的。在各个“日期”列以及“时刻”列中分别存储有实施语音输入的预定的时刻中的、年月日以及时刻。在“关键词”列中存储有表示预测的语音识别的结果中的至少一部分的关键词。
判定对象DB122的各日志记录、即各判定信息通过云服务器6或其他装置预先准备并保存。该判定信息也可以是,例如在某时刻或时间段,指定存在有从存在于机器人2的附近的电视或收音机等的语音广播设备发出的可能性的关键词的信息。
即,理想的是判定对象DB122的“关键词”列中存储的关键词为,在电视或收音机等的节目中说出的预定的台词中的至少一部分,“日期”列以及“时刻”列中存储的时刻(或时间段)为,在该节目预测说出该台词的时刻或时间段。
如此,将在广播预定或广播中的某节目中发出的台词中的至少一部分、与该台词发出的时机作为判定信息预先保存于判定对象DB122,从而后述的响应判定部103能够使机器人2不响应该台词。
服务器控制部10综合控制云服务器6。服务器控制部10包含:语音识别部101、信息取得部(识别信息取得部)102、响应判定部103、以及响应创建部104。语音识别部101和响应创建部104的处理内容与图1的说明中的语音识别部101和响应创建部104的处理内容相同。
本实施方式所涉及的信息取得部102将从语音识别部101取得的识别信息发送至响应判定部103。本实施方式所涉及的响应判定部103根据从信息取得部102取得的识别信息,判定是否创建响应消息(即,是否使对话机器人2执行响应)。具体而言,响应判定部103参照存储部12的判定对象DB122,判定是否存在有表示与识别信息中包含的时刻(语音输入时刻)相同时刻且表示与识别信息中包含的语音识别的结果相同关键词的日志记录。另外,在不指定时刻而指定时间段的情况下,在识别信息中包含的时刻处于该时间段的范围内的情况下,视作“相同时刻”即可。
在不存在表示相同时刻且相同关键词的日志记录的情况下,响应判定部103判定为创建响应消息。另一方面,在存在有表示相同时刻且相同关键词的日志记录的情况下,响应判定部103判定为不创建响应消息。另外,本实施方式中,如果识别结果的字符串与判定信息的关键词的一致比率为预先设定的阈值以上的情况下,也可以判定为这些“相同”。
响应创建部104创建响应消息,并将该响应消息经由服务器通信部11发送至对话机器人2。在已从对话机器人2接收到机器人辨别信息的情况下,响应创建部104也可以向与识别结果建立关联的机器人辨别信息所示的对话机器人2发送响应消息。由此,能够向该对话机器人2回复与某对话机器人2中取得的语音对应的响应消息。
《处理的流程》
接下来,参照图10说明响应系统400中的响应与否判定处理的流程。图10为表示响应系统400中的响应与否判定处理的流程的流程图。另外,图10的示例与图及图7相同的,示出针对某输入语音的(针对输入一次的)响应与否判定处理的流程。
对话机器人2的控制部20在从麦克风22输入周围的语音时,取得语音输入时刻。控制部20使输入的语音与语音输入时刻(以及,机器人辨别信息)建立关联并发送至云服务器6。云服务器6的服务器控制部10取得该语音以及语音输入时刻(以及,机器人辨别信息)(S50)。语音识别部101针对取得的语音执行语音识别(S52),将识别结果与语音输入时刻建立关联并创建识别信息(S54)。语音识别部101向信息取得部102发送识别信息。
信息取得部102在接收识别信息(识别信息取得步骤)时,将该识别信息发送至响应判定部103。响应判定部103在接收识别信息时,判定该识别信息是否与判定对象DB122的判定信息相同(S56,响应判定步骤)。即,响应判定部103判定在判定对象DB122中是否存在与识别信息所示的语音输入时刻相同时刻(或包含语音输入时刻的时间段的范围内)且识别信息所示的语音识别的结果与关键词一致的日志记录。在识别信息与判定对象DB122的判定信息相同的情况下(S56中为是),响应判定部103判定为不创建响应消息(S62)。另一方面,在不相同的情况下(S56中为否),响应判定部103判定为创建响应消息(S58),响应创建部104创建对应于识别结果的响应消息(S60)。响应创建部104将创建的响应消息发送至对话机器人2,对话机器人2从扬声器23输出该响应消息。
根据所述的处理,响应系统400在预先存储部中预先保存包含实施语音输入的预定的时刻或时间段和预测的语音识别的结果的判定信息。并且,在对话机器人2获取的根据语音输入创建的识别信息中包含的时刻以及语音识别结果,与任意的判定信息的时刻或时间段、以及关键词匹配的情况下,不使对话机器人2进行响应。
例如,像电视或收音机的广播那样,在预先知晓何时发出不应响应的关键词的情况下,将该不应响应的关键词和预测发出该关键词的时刻,作为判定信息预先保存于存储部。
由此,响应系统400能够防止机器人2以不适当的时机输出响应消息。因而,响应系统400能够适当地判定是否需要来自电视或收音机等的对输出语音作出响应。
〔变形例〕
在所述各实施方式中,作为搭载有控制装置的电子设备的示例,列举对话机器人为例进行了说明。然而,所述各实施方式所涉及的响应系统中包含的电子设备只要是具有对话功能的设备即可,其方式并不限定于对话机器人。例如,响应系统也可以包含作为电子设备的便携式终端、电脑等信息设备、扬声器单体、微波炉、以及冰箱等家电设备。
〔通过软件的实现例〕
云服务器1以及3、以及对话机器人2、4、以及5的控制模块也可以通过形成于集成电路(IC芯片)等的逻辑电路(硬件)来实现,也可以通过软件来实现。
在后者的情况下,云服务器1以及3、以及对话机器人2、4、以及5具备执行实现各功能的软件即程序的命令的计算机。该计算机例如至少包括一个处理器(控制装置),同时至少包括一个用于存储所述程序的、并且计算机可读取的存储介质。并且,上述计算机中,通过上述处理器从上述存储介质中读取上述程序并执行程序来实现本发明的目的。作为上述处理器,例如可使用C PU(Central Processing Unit)。作为存储介质,可以使用例如R OM(Read Only Memory)等的“非暂时性有形介质”之外,还可以使用磁带、磁盘、卡、半导体存储器、可编程逻辑电路等。此外,也可以进一步具备扩展上述程序的RAM(Random AccessMemory,随机存取存储器)等。此外,上述程序可以经由能够发送该程序的任意传输介质(通信网络,广播波等)提供给计算机。并且,本发明的一个方面也可以以上述程序通过电子传输来具体化、并嵌入在载波中的数据信号的形式来实现。
〔总结〕
本发明的第一方面涉及的判定装置(服务器控制部10或控制部20)是判定是否需要具备语音输入装置(麦克风22)的电子设备(对话机器人2或4)作出响应的判定装置,所述判定装置具备:信息取得部(信息取得部102或控制部20),其取得将针对输入至所述语音输入装置的语音的语音识别的结果、与输入该语音的时刻即语音输入时刻或与进行所述语音识别的时刻即识别时刻建立关联的识别信息;及响应判定部(响应判定部103或响应判定部203),其判定是否执行对应于所述识别信息的响应,所述响应判定部在所述识别信息的取得前或自取得所述识别信息的规定时间内,取得与所述识别信息相同的内容的第二识别信息的情况下,判定为不执行对应于所述识别信息的所述响应。
例如针对电视节目的语音等,在相同时刻于其他的位置(从其他的电视)实施相同的语音输出。根据所述的结构,判定装置在同时获取相同内容的识别结果的情况下,针对表示该识别结果的识别信息,判定为不执行对应于该识别信息的所述响应。因而,判定装置能够防止来自电视或收音机等的输出语音的误反应。
本发明的第二方面涉及的判定装置为如上述第一方面所述的判定装置,所述判定装置还可以具备语音识别部(语音识别部101),其从多个电子设备取得所述语音输入时刻及所述语音并进行语音识别,并且将语音识别的结果和所述语音输入时刻或所述识别时刻建立关联而创建识别信息。
根据上述构成,电子设备可以不具备语音识别功能和创建识别信息的功能,只要能够取得语音并将其发送到判定装置即可。因此,判定装置可以从更多类型的电子设备收集语音,并判断是否需要响应。
本发明的第三方面涉及的判定装置为如上所述的第一方面的判定装置,其中,所述信息取得部可以从多个所述电子设备取得所述识别信息。
根据上述构成,判定装置也可以不利用本装置进行语音识别和语音输入时刻或识别时刻的确定。如上所述,由于可以减小判定装置的处理负载,所以可以提高响应判定部中的判定处理的速度。
本发明的第四方面涉及的判定装置为如第一至第三方面中所述的任意一个判定装置,其还可以具备响应创建部,所述响应创建部根据所述响应判定部的判定结果,创建对应于所述识别信息的响应消息。
根据上述构成,当响应判定部判定为执行响应的情况下,可以创建对应于识别信息的响应消息。
本发明的第五方面涉及的判定装置为如第一至第三方面中所述的任意一个判定装置,其中,所述识别信息包含用于确定电子设备的辨别信息,所述电子设备为已取得成为语音识别对象的语音,所述判定装置还可以具备判定结果发送部(响应判定部103),其将所述响应判定部的判定结果发送至对应于包含在进行该判定的识别信息中的所述辨别信息的电子设备。
根据上述构成,判定装置不必由本装置确定关于响应的详细控制内容,例如响应消息或响应动作等。因而,能够减少判定装置的处理负载。此外,根据上述构成,判定装置仅向电子设备发送可否响应的判定结果即可。因而,与在判定装置中确定响应内容并将表示该内容的信息发送至电子设备的情况相比,能够削减通信数据的容量而减轻通信所涉及的负载。如上所述,根据上述构成,可以提高判定装置中的各种处理的速度。
本发明的第六方面涉及的判定装置为如第一至第五方面所述的任意一个判定装置,其还可以具备识别信息保存部(信息取得部102),所述识别信息保存部将由所述信息取得部取得的所述识别信息保存在存储部,所述响应判定部可以在规定的时机判定是否针对保存在所述存储部的各识别信息,创建对应于每个识别信息的响应。
根据上述构成,例如,当从多个电子设备基本上同时接收到语音(或识别信息)的情况下,可以在规定的时机顺序地进行关于每个语音(或识别信息)的判定。
例如电视节目的语音在相同时刻于其他的位置进行相同的语音输出。该情况下,可认为多个电子设备大致同时取得相同的内容的语音,并发送至判定装置。根据上述构成,在这种情况下也可以进行正确的判定处理。
本发明的第七方面涉及的判定装置为如上述第一至第六方面中所述的任意一个判定装置,所述响应判定部参照所述存储部中预先保存的、将语音输入的预定的时刻或时间段与表示预测的语音识别的结果中的至少一部分的规定的关键词建立关联的信息即判定信息,在所述识别信息中包含的所述语音输入时刻或所述识别时刻以及所述语音识别的结果,分别与所述判定信息的所述预定的时刻或时间段以及语音识别的结果匹配的情况下,判定为不创建对应于该识别信息的响应。
根据所述的结构,将实施语音输入的预定的时刻或时间段与预测的语音识别的结果作为判定信息预先保存,在来自语音输入装置的识别信息与上述时刻或时间段以及语音识别的结果匹配的情况下,能够不使电子设备进行响应。
例如,像电视或收音机的广播那样,在预先知晓何时发出不应响应的关键词的情况下,将该不应响应的关键词和预测发出该关键词的时刻,作为判定信息预先保存。由此,判定装置能够防止电子设备以不适当的时机输出响应消息。因而,根据所述的结构,能够适当地判定是否需要对来自电视或收音机等的输出语音作出响应。
本发明的第八方面涉及的电子设备(对话机器人2及4)是一种具备语音输入装置(麦克风22)的电子设备,其中,所述电子设备具备响应部,所述响应部根据上述第一方面所述的判定装置的判定结果执行响应。
本发明的第九方面涉及的响应系统(需要系统100、200、300及400)包含上述第一至第七方面中所述的任意一个判定装置和上述第八方面所述的电子设备。
本发明的第十方面涉及的判定装置(服务器控制部10或控制部20)的控制方法是判定是否需要具备语音输入装置(麦克风22)的电子设备(对话机器人2或4)作出响应的判定装置的控制方法,所述控制方法包括:信息取得步骤,其取得将针对输入至所述语音输入装置的语音的语音识别的结果、与输入该语音的时刻即语音输入时刻或进行所述语音识别的时刻即识别时刻建立关联的识别信息;及响应判定步骤,其判定是否执行对应于所述识别信息的响应,在所述响应判定步骤中,在所述识别信息的取得前或自取得所述识别信息的规定时间内,取得与所述识别信息相同的内容的第二识别信息的情况下,判定为不执行对应于所述识别信息的所述响应。
根据上述第八至第十发明所述的任意一个方面涉及的构成,可起到与上述第一方面所述的判定装置同样的效果。
本发明的各方面所涉及的判定装置也可以通过计算机来实现,在该情况下,使计算机作为所述判定装置所具备的各部(软件要素)进行动作从而利用计算机来实现所述判定装置的判定装置的控制程序以及记录有该程序的计算机可读取的记录介质也包含于本发明的范畴。
本发明不限于上述各实施方式,能在权利要求所示的范围中进行各种变更,将不同的实施方式中分别公开的技术手段适当组合得到的实施方式也包含于本发明的技术范围。而且,能够通过组合各实施方式分别公开的技术方法来形成新的技术特征。
附图标记说明
100、200、300、400:响应系统
1、3、6:云服务器
2、4、5:对话机器人
10:服务器控制部(判定装置)
101:语音识别部
102:信息取得部(识别信息保存部)
103:响应判定部(判定结果发送部)
104:响应创建部
11:服务器通信部
12、24:存储部
121、122:判定对象DB
20:控制部(判定装置)
201:语音识别部
202:响应创建部
203:响应判定部
21:通信部
22:麦克风(语音输入装置)
23:扬声器

Claims (11)

1.一种判定装置,判定是否需要具备语音输入装置的电子设备作出响应,所述判定装置的特征在于,具备:
信息取得部,其取得将针对输入至所述语音输入装置的语音的语音识别的结果、与输入该语音的时刻即语音输入时刻或与进行所述语音识别的时刻即识别时刻建立关联的识别信息;及
响应判定部,其判定是否执行对应于所述识别信息的响应,
所述响应判定部在所述识别信息的取得前或自取得所述识别信息的规定时间内,取得与所述识别信息相同的内容的第二识别信息的情况下,判定为不执行对应于所述识别信息的所述响应。
2.如权利要求1所述的判定装置,其特征在于,具备语音识别部,其从多个电子设备取得所述语音输入时刻及所述语音并进行语音识别,并且将所述语音识别的结果和所述语音输入时刻或所述识别时刻建立关联而创建识别信息。
3.如权利要求1所述的判定装置,其特征在于,所述信息取得部从多个所述电子设备取得所述识别信息。
4.如权利要求1至3中任意一项所述的判定装置,其特征在于,具备响应创建部,其根据所述响应判定部的判定结果,创建对应于所述识别信息的响应消息。
5.如权利要求1至3中任意一项所述的判定装置,其特征在于,所述识别信息包含用于确定电子设备的辨别信息,所述电子设备为已取得成为语音识别对象的语音,
所述判定装置具备判定结果发送部,其将所述响应判定部的判定结果发送至对应于包含在进行所述判定的识别信息中的所述辨别信息的电子设备。
6.如权利要求1至5中任意一项所述的判定装置,其特征在于,具备识别信息保存部,所述识别信息保存部将由所述信息取得部取得的所述识别信息保存在存储部中,所述响应判定部在规定的时机判定是否针对保存在所述存储部的各识别信息,创建对应于每个识别信息的响应。
7.如权利要求1至6中任意一项所述的判定装置,其特征在于,所述响应判定部参照所述存储部中预先保存的、将语音输入的预定的时刻或时间段与表示预测的语音识别的结果中的至少一部分的规定的关键词建立关联的信息即判定信息,
在所述识别信息中包含的所述语音输入时刻或所述识别时刻以及所述语音识别的结果,分别与所述判定信息的所述预定的时刻或时间段以及语音识别的结果匹配的情况下,判定为不创建对应于所述识别信息的响应。
8.一种电子设备,其具备语音输入装置,所述电子设备的特征在于,具备响应部,所述响应部根据权利要求1所述的判定装置的判定结果执行响应。
9.一种响应系统,其特征在于,包含:权利要求1至7中任一项所述的判定装置;以及权利要求8所述的电子设备。
10.一种判定装置的控制方法,其为判定是否需要具备语音输入装置的电子设备作出响应的判定装置的控制方法,所述控制方法包括:
信息取得步骤,其取得将针对输入至所述语音输入装置的语音的语音识别的结果、与输入所述语音的时刻即语音输入时刻或与进行所述语音识别的时刻即识别时刻建立关联的识别信息;及
响应判定步骤,其判定是否执行对应于所述识别信息的响应,
在所述响应判定步骤中,在所述识别信息的取得前或自取得所述识别信息的规定时间内,取得与所述识别信息相同的内容的第二识别信息的情况下,判定为不执行对应于所述识别信息的所述响应。
11.一种记录介质,记录有用于使计算机作为权利要求1所述的判定装置发挥功能的控制程序的、计算机可读取的记录介质,其特征在于,记录有用于使所述计算机作为所述信息取得部及所述响应判定部发挥功能的控制程序。
CN201910410774.4A 2018-05-18 2019-05-17 判定装置、电子设备、响应系统、判定装置的控制方法 Pending CN110503950A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-096494 2018-05-18
JP2018096494A JP2019200393A (ja) 2018-05-18 2018-05-18 判定装置、電子機器、応答システム、判定装置の制御方法、および制御プログラム

Publications (1)

Publication Number Publication Date
CN110503950A true CN110503950A (zh) 2019-11-26

Family

ID=68533947

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910410774.4A Pending CN110503950A (zh) 2018-05-18 2019-05-17 判定装置、电子设备、响应系统、判定装置的控制方法

Country Status (3)

Country Link
US (1) US20190355357A1 (zh)
JP (1) JP2019200393A (zh)
CN (1) CN110503950A (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004301875A (ja) * 2003-03-28 2004-10-28 Toyota Central Res & Dev Lab Inc 音声認識装置
JP2004355854A (ja) * 2003-05-27 2004-12-16 Matsushita Electric Works Ltd 音声認識による照明制御装置
CN101689366A (zh) * 2007-07-02 2010-03-31 三菱电机株式会社 声音识别装置
CN103474063A (zh) * 2013-08-06 2013-12-25 福建华映显示科技有限公司 语音辨识系统以及方法
CN104350545A (zh) * 2012-06-04 2015-02-11 三菱电机株式会社 自动记录装置
CN105027198A (zh) * 2013-02-25 2015-11-04 三菱电机株式会社 语音识别系统以及语音识别装置
CN106233378A (zh) * 2014-05-13 2016-12-14 夏普株式会社 控制装置和消息输出控制系统
US20170076721A1 (en) * 2015-09-10 2017-03-16 Fred Bargetzi Acoustic sensory network
CN106653031A (zh) * 2016-10-17 2017-05-10 海信集团有限公司 语音唤醒方法及语音交互装置
US20170194000A1 (en) * 2014-07-23 2017-07-06 Mitsubishi Electric Corporation Speech recognition device and speech recognition method
CN107393548A (zh) * 2017-07-05 2017-11-24 青岛海信电器股份有限公司 多个语音助手设备采集的语音信息的处理方法及装置
CN107919119A (zh) * 2017-11-16 2018-04-17 百度在线网络技术(北京)有限公司 多设备交互协同的方法、装置、设备及计算机可读介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014087495A1 (ja) * 2012-12-05 2014-06-12 株式会社日立製作所 音声対話ロボット、音声対話ロボットシステム
JP2019003010A (ja) * 2017-06-14 2019-01-10 カシオ計算機株式会社 音声応答装置、音声応答システム、音声応答方法及びプログラム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004301875A (ja) * 2003-03-28 2004-10-28 Toyota Central Res & Dev Lab Inc 音声認識装置
JP2004355854A (ja) * 2003-05-27 2004-12-16 Matsushita Electric Works Ltd 音声認識による照明制御装置
CN101689366A (zh) * 2007-07-02 2010-03-31 三菱电机株式会社 声音识别装置
CN104350545A (zh) * 2012-06-04 2015-02-11 三菱电机株式会社 自动记录装置
CN105027198A (zh) * 2013-02-25 2015-11-04 三菱电机株式会社 语音识别系统以及语音识别装置
CN103474063A (zh) * 2013-08-06 2013-12-25 福建华映显示科技有限公司 语音辨识系统以及方法
CN106233378A (zh) * 2014-05-13 2016-12-14 夏普株式会社 控制装置和消息输出控制系统
US20170194000A1 (en) * 2014-07-23 2017-07-06 Mitsubishi Electric Corporation Speech recognition device and speech recognition method
US20170076721A1 (en) * 2015-09-10 2017-03-16 Fred Bargetzi Acoustic sensory network
US20170092272A1 (en) * 2015-09-10 2017-03-30 Crestron Electronics, Inc. System and method for determining recipient of spoken command in a control system
CN106653031A (zh) * 2016-10-17 2017-05-10 海信集团有限公司 语音唤醒方法及语音交互装置
CN107393548A (zh) * 2017-07-05 2017-11-24 青岛海信电器股份有限公司 多个语音助手设备采集的语音信息的处理方法及装置
CN107919119A (zh) * 2017-11-16 2018-04-17 百度在线网络技术(北京)有限公司 多设备交互协同的方法、装置、设备及计算机可读介质

Also Published As

Publication number Publication date
US20190355357A1 (en) 2019-11-21
JP2019200393A (ja) 2019-11-21

Similar Documents

Publication Publication Date Title
US9583102B2 (en) Method of controlling interactive system, method of controlling server, server, and interactive device
CN109065035A (zh) 信息交互方法及装置
US10397400B2 (en) Electronic call assistant based on a caller-status and a callee-status
WO2015125549A1 (ja) 情報処理装置
US20150120304A1 (en) Speaking control method, server, speaking device, speaking system, and storage medium
CN110956956A (zh) 基于策略规则的语音识别方法及装置
CN107580237A (zh) 电视的操作方法、装置、系统和存储介质
CN103944983B (zh) 语音控制指令纠错方法和系统
CN107222384A (zh) 电子设备及其智能问答方法、电子设备、服务器和系统
KR101591462B1 (ko) 온라인 아이디어 회의 제공방법
US10891959B1 (en) Voice message capturing system
US20200110788A1 (en) Mediating method and device
CN111182390B (zh) 音量数据处理方法、装置、计算机设备及存储介质
CN107862071A (zh) 生成会议记录的方法和装置
CN108810296A (zh) 一种智能外呼方法及装置
KR20200115660A (ko) 인텔리전트 지원 방법
CN104023016A (zh) 在通讯终端建立通讯连接的方法和设备
CN111683175A (zh) 一种自动应答来电的方法、装置、设备及存储介质
CN108259653B (zh) 一种语音测试方法及装置、系统
KR20210091352A (ko) 명령 기반형 대화식 시스템 및 그 방법
CN103941868B (zh) 语音控制准确率调整方法和系统
CN110503950A (zh) 判定装置、电子设备、响应系统、判定装置的控制方法
CN108182942B (zh) 一种支持不同虚拟角色交互的方法和装置
CN109660678A (zh) 电核系统实现方法、系统及可读存储介质
CN105323391A (zh) 一种自动语音菜单播报方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20191126

WD01 Invention patent application deemed withdrawn after publication