CN110085225A - 语音交互方法、装置、智能机器人及计算机可读存储介质 - Google Patents
语音交互方法、装置、智能机器人及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110085225A CN110085225A CN201910333028.XA CN201910333028A CN110085225A CN 110085225 A CN110085225 A CN 110085225A CN 201910333028 A CN201910333028 A CN 201910333028A CN 110085225 A CN110085225 A CN 110085225A
- Authority
- CN
- China
- Prior art keywords
- interactive
- voice
- speed
- voice broadcast
- intelligent robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 238
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000036651 mood Effects 0.000 claims description 32
- 208000019901 Anxiety disease Diseases 0.000 claims description 16
- 230000003993 interaction Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 abstract description 14
- 238000009223 counseling Methods 0.000 description 6
- 230000036506 anxiety Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 210000004209 hair Anatomy 0.000 description 4
- 238000005266 casting Methods 0.000 description 3
- 206010033546 Pallor Diseases 0.000 description 1
- 206010048245 Yellow skin Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Quality & Reliability (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供一种语音交互方法、装置、智能机器人及计算机可读存储介质。该方法应用于智能机器人,该方法包括:在语音交互场景下,获得交互对象的对象特征信息;按照与对象特征信息匹配的语音播报参数,与交互对象进行语音交互。可见,本发明实施例中,智能机器人可以根据交互对象的实际情况,对所使用的语音播报参数进行灵活地调整,也就是说,智能机器人使用的语音交互策略是多样化和个性化的,因此,与现有技术中使用固定的语音交互策略的情况相比,本发明实施例中,智能机器人能够提供更为人性化的服务,语音交互效果能够得到有效地提升。
Description
技术领域
本发明实施例涉及机器人技术领域,尤其涉及一种语音交互方法、装置、智能机器人及计算机可读存储介质。
背景技术
随着语音识别的准确度和语义理解能力的不断提升,智能机器人越来越受到市场的青睐,智能机器人的使用越来越普遍。
在智能机器人为用户服务的过程中,智能机器人往往会与用户进行语音交互。一般而言,在各种情况下,智能机器人均使用固定的语音交互策略,那么,智能机器人进行语音交互时使用的策略非常单一,这样会导致语音交互效果较差。
发明内容
本发明实施例提供一种语音交互方法、装置、智能机器人及计算机可读存储介质,以解决智能机器人进行语音交互时使用的策略单一,导致语音交互效果较差的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供一种语音交互方法,应用于智能机器人,所述方法包括:
在语音交互场景下,获得交互对象的对象特征信息;
按照与所述对象特征信息匹配的语音播报参数,与所述交互对象进行语音交互。
第二方面,本发明实施例提供一种语音交互装置,应用于智能机器人,所述装置包括:
获得模块,用于在语音交互场景下,获得交互对象的对象特征信息;
交互模块,用于按照与所述对象特征信息匹配的语音播报参数,与所述交互对象进行语音交互。
第三方面,本发明实施例提供一种智能机器人,包括处理器,存储器,存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述语音交互方法的步骤。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述语音交互方法的步骤。
本发明实施例中,在语音交互场景下,智能机器人可以获得交互对象的对象特征信息,并按照与对象特征信息匹配的语音播报参数,与交互对象进行语音交互。可见,本发明实施例中,智能机器人可以根据交互对象的实际情况,对所使用的语音播报参数进行灵活地调整,也就是说,智能机器人使用的语音交互策略是多样化和个性化的,因此,与现有技术中使用固定的语音交互策略的情况相比,本发明实施例中,智能机器人能够提供更为人性化的服务,语音交互效果能够得到有效地提升。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获取其他的附图。
图1是本发明实施例提供的语音交互方法的流程图之一;
图2是本发明实施例提供的语音交互方法的流程图之二;
图3是本发明实施例提供的语音交互方法的流程图之三;
图4是本发明实施例提供的语音交互方法的流程图之四;
图5是本发明实施例提供的语音交互装置的结构框图;
图6是本发明实施例提供的智能机器人的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获取的所有其他实施例,都属于本发明保护的范围。
参见图1,图中示出了本发明实施例提供的语音交互方法的流程图之一。如图1所示,该方法应用于智能机器人,该方法包括如下步骤:
步骤101,在语音交互场景下,获得交互对象的对象特征信息。
这里,交互对象也可以称之为智能机器人的服务对象。
可选地,对象特征信息中可以包括以下至少一项:
对象语音输出参数、对象情绪和对象属性;
其中,对象语音输出参数中包括对象语速、对象音量和对象音色中的至少一项,对象属性中包括对象年龄属性、对象性别属性和对象肤色属性中的至少一项。
这里,对象年龄属性可以包括儿童属性、青年属性、中年属性、老年属性等;对象性别属性可以包括男性属性、女性属性等;对象肤色属性可以包括黄皮肤属性、白皮肤属性、黑皮肤属性等。
步骤102,按照与对象特征信息匹配的语音播报参数,与交互对象进行语音交互。
这里,语音播报参数包括但不限于语音播报速度、语音播报音量、语音播报音色等。
在获得交互对象的对象特征信息之后,智能机器人可以确定与所获得的对象特征信息匹配的语音播报参数;其中,与任一对象特征信息匹配的语音播报参数是指:能够给具有该对象特征信息的对象带来较好的交互体验的语音播报参数。这样,在智能机器按照所确定的语音播报参数,与交互对象进行语音交互的情况下,交互对象的交互体验能够得到保证,相应地,语音交互效果也能够得到保证。
本发明实施例中,在语音交互场景下,智能机器人可以获得交互对象的对象特征信息,并按照与对象特征信息匹配的语音播报参数,与交互对象进行语音交互。可见,本发明实施例中,智能机器人可以根据交互对象的实际情况,对所使用的语音播报参数进行灵活地调整,也就是说,智能机器人使用的语音交互策略是多样化和个性化的,因此,与现有技术中使用固定的语音交互策略的情况相比,本发明实施例中,智能机器人能够提供更为人性化的服务,语音交互效果能够得到有效地提升。
可选地,获得交互对象的对象特征信息,包括:
统计交互对象在目标时长内的语音输出字数,并根据目标时长和语音输出字数,计算交互对象的对象语速。
这里,目标时长可以为一设定的时长;或者,目标时长可以为智能机器人随机确定的一时长。具体地,目标时长可以为1分钟、2分钟、5分钟或者其他时长,在此不再一一列举。
具体地,在统计出交互对象在目标时长(例如2分钟)内的语音输出字数之后,根据目标时长和统计出的语音输出字数,可以计算得到交互对象在单位时间内的语音输出字数,例如,可以将统计出的语音输出字数与2分钟相除,以得到交互对象在1分钟内的语音输出字数。之后,智能机器人可以将交互对象在单位时间内的语音输出字数作为交互对象的对象语速。
可见,得到交互对象的对象语速的操作实施起来非常便捷。
可选地,智能机器人包括摄像头;
获得交互对象的对象特征信息,包括:
调用摄像头采集交互对象的面部图像,并根据面部图像,获得交互对象的对象情绪。
这里,智能机器人包括的摄像头具体可以为前置摄像头。
具体地,在调用摄像头采集交互对象的面部图像之后,智能机器人可以对所采集的面部图像进行分析,以确定面部图像中是否存在能够体现焦虑情绪的面部特征,例如皱眉,面部绷紧、表情紧张等。在确定结果为存在的情况下,智能机器人可以判定交互对象的对象情绪为焦虑情绪;在确定结果为不存在的情况下,智能机器人可以判定交互对象的对象情绪为非焦虑情绪。
需要说明的是,对象属性也可以通过对调用摄像头采集的面部图像进行分析得到。
可见,得到交互对象的对象情绪的操作实施起来非常便捷。
参见图2,图中示出了本发明实施例提供的语音交互方法的流程图之二。如图2所示,该方法应用于智能机器人,该方法包括如下步骤:
步骤201,在语音交互场景下,获得交互对象的对象特征信息;其中,对象特征信息中包括对象语音输出参数,对象语音输出参数中包括对象语速。
这里,交互对象也可以称之为智能机器人的服务对象。
需要说明的是,对象语音输出参数中除了包括对象语速之外,还可以包括对象音量和对象音色中的至少一项;对象特征信息中除了包括对象语音输出参数之外,还可以包括对象情绪和对象属性中的至少一项,对象属性中可以包括对象年龄属性、对象性别属性和对象肤色属性中的至少一项。
步骤202,确定对象语速对应的语音播报速度;
步骤203,以语音播报速度,与交互对象进行语音交互。
这里,智能机器人中可以预先存储有对象语速范围与语音播报速度之间的对应关系(为了与下文中出现的对应关系进行区分,后续将其称为第一对应关系;其中,任一对象语速范围对应的语音播报速度与该对象语速范围内的对象语速非常接近。
需要说明的是,由于交互对象的对象特征信息中包括对象语速,智能机器人可以先得到对象特征信息中的对象语速所属的对象语速范围;接下来,根据第一对应关系,可以确定所得到的对象语速范围所对应的语音播报速度;最后,智能机器人可以以所确定的语音播报速度,与交互对象进行语音交互。
具体地,假设本发明实施例中的智能机器人为机场内的咨询服务机器人,在智能机器人为用户提高咨询服务时,如果用户以正常语速提问,智能机器人可以以正常语音播报速度回答用户问题;如果用户以较快的语速提问,智能机器人可以以较快的语音播报速度回答用户问题;如果用户以较慢的语速提问,智能机器人可以以较慢的语音播报速度回答用户问题。
需要指出的是,智能机器人中也可以不预先存储第一对应关系,在确定对象语速对应的语音播报速度时,智能机器人可以直接将对象语速本身作为其对应的语音播放速度,这也是可行的。
本发明实施例中,在语音交互场景下,智能机器人可以获得交互对象的对象特征信息,并以对象特征信息中的对象语速对应的语音播报速度,与交互对象进行语音交互。可见,本发明实施例中,智能机器人可以根据交互对象的对象语速,对所使用的语音播报速度进行灵活地调整,在交互对象的对象语速较快的情况下,智能机器人的语音播报速度会较快,在交互对象的对象语速较慢的情况下,智能机器人的语音播报速度会较慢,这样能够避免固定的语音播报速度引起交互对象的不适应,从而提高交互对象的交互体验,并提高语音交互效果。
参见图3,图中示出了本发明实施例提供的语音交互方法的流程图之三。如图3所示,该方法应用于智能机器人,该方法包括如下步骤:
步骤301,在语音交互场景下,获得交互对象的对象特征信息;其中,对象特征信息中包括对象情绪。
这里,交互对象也可以称之为智能机器人的服务对象。
需要说明的是,对象特征信息除了包括对象情绪,还可以包括对象语音输出参数和对象属性中的至少一项;其中,对象语音输出参数中包括对象语速、对象音量和对象音色中的至少一项,对象属性中包括对象年龄属性、对象性别属性和对象肤色属性中的至少一项。
步骤302,在对象情绪为焦急情绪的情况下,以第一语音播报速度与交互对象进行语音交互;否则,以第二语音播报速度与交互对象进行语音交互;其中,第一语音播报速度快于第二语音播报速度。
这里,智能机器人中可以预先存储有第二对应关系,在第二对应关系中,焦急情绪与第一语音播报速度对应,非焦急情绪与第二语音播报速度对应,且第一语音播报速度快于第二语音播报速度。
需要说明的是,由于交互对象的对象特征信息中包括对象情绪,智能机器人可以判断对象特征信息中的对象情绪是否为焦急情绪。无论确定结果为是还是否,根据第二对应关系,智能机器人均能够确定对象特征信息中的对象情绪所对应的语音播报速度,之后,智能机器人可以以所确定的语音播报速度,与交互对象进行语音交互。
具体地,假设本发明实施例中的智能机器人为机场内的咨询服务机器人,在智能机器人为用户提高咨询服务时,如果用户急于登机但找不到登机口,用户会表现出焦急情绪,此时,智能机器人会以较快的语音播报速度回答用户问题,从而便于用户尽快找到登机口。
需要指出的是,智能机器人也可以不预先存储第二对应关系,智能机器人也可以通过其他方式确定与对象情绪对应的语音播报速度,只需保证智能机器人在交互对象处于焦急情绪下的语速播报速度相比于非焦急情绪下的语音播报速度更快即可。
本发明实施例中,在语音交互场景下,智能机器人可以获得交互对象的对象特征信息,并以对象特征信息中的对象情绪对应的语音播报速度,与交互对象进行语音交互。可见,本发明实施例中,智能机器人可以根据交互对象的对象情绪,对所使用的语音播报速度进行灵活地调整,在交互对象的对象情绪为焦急情绪的情况下,智能机器人的语音播报速度会较快,在交互对象的对象情绪为非焦急情绪的情况下,智能机器人的语音播报速度会较慢,这样能够避免固定的语音播报速度给交互对象带来不便,从而提高交互对象的交互体验,并提高语音交互效果。
参见图4,图中示出了本发明实施例提供的语音交互方法的流程图之四。如图4所示,该方法应用于智能机器人,该方法包括如下步骤:
步骤401,在语音交互场景下,获得交互对象的对象特征信息;其中,对象特征信息中包括对象属性,对象属性中包括对象年龄属性。
这里,交互对象也可以称之为智能机器人的服务对象。
需要说明的是,对象属性中除了包括对象年龄属性之外,还可以包括对象性别属性和对象肤色属性中的至少一项;对象特征信息中除了包括对象属性之外,还可以包括对象语音输出参数和对象情绪中的至少一项,对象语音输出参数中包括对象语速、对象音量和对象音色中的至少一项。
步骤402,确定年龄属性对应的语音播报音色。
步骤403,以语音播报音色,与交互对象进行语音交互。
这里,智能机器人中可以预先存储有年龄属性与语音播报音色之间的对应关系(为了与上文中出现的对应关系进行区分,后续将其称为第三对应关系)。具体地,在第三对应关系中,儿童属性对应的语音播报音色可以为儿童稚嫩而可爱的音色,中年属性对应的语音播报音色可以为中年人浑厚而成熟的音色,老年属性对应的语音播报音色可以为老年人沉稳而温暖的音色。这样,在交互对象的对象特征信息中包括年龄属性的情况下,智能机器人可以根据第三对应关系,确定对象特征信息中的年龄属性对应的语音播报音色,并根据所确定的语音播报音色,与交互对象进行语音交互。
具体地,假设本发明实施例中的智能机器人为机场内的咨询服务机器人,在智能机器人为用户提高咨询服务时,如果提问的用户为儿童,智能机器人会以稚嫩而可爱的音色回答用户问题;如果提问的用户为中年人,智能机器人会以浑厚而成熟的音色回答用户问题;如果提问的用户为老年人,智能机器人会以沉稳而温暖的音色回答用户问题。
本发明实施例中,在语音交互场景下,智能机器人可以获得交互对象的对象特征信息,并以对象特征信息中的对象年龄属性对应的语音播报音色,与交互对象进行语音交互。可见,本发明实施例中,智能机器人可以根据交互对象的对象年龄属性,对所使用的语音播报音色进行灵活地调整,以增加交互过程的趣味性,从而提高交互对象的交互体验,并提高语音交互效果。
综上,与现有技术相比,本发明实施例中,智能机器人能够提供更为人性化的服务,语音交互效果能够得到有效地提升。
参见图5,图中示出了本发明实施例提供的语音交互装置500的结构框图。如图5所示,语音交互装置500包括:
获得模块501,用于在语音交互场景下,获得交互对象的对象特征信息;
交互模块502,用于按照与对象特征信息匹配的语音播报参数,与交互对象进行语音交互。
可选地,对象特征信息中包括以下至少一项:
对象语音输出参数、对象情绪和对象属性;
其中,对象语音输出参数中包括对象语速、对象音量和对象音色中的至少一项,对象属性中包括对象年龄属性、对象性别属性和对象肤色属性中的至少一项。
可选地,对象特征信息中包括对象语音输出参数,对象语音输出参数中包括对象语速;
交互模块502,包括:
第一确定单元,用于确定对象语速对应的语音播报速度;
第一交互单元,用于以语音播报速度,与交互对象进行语音交互。
可选地,对象特征信息中包括对象情绪;
交互模块502,具体用于:
在对象情绪为焦急情绪的情况下,以第一语音播报速度与交互对象进行语音交互;否则,以第二语音播报速度与交互对象进行语音交互;
其中,第一语音播报速度快于第二语音播报速度。
可选地,对象特征信息中包括对象属性,对象属性中包括对象年龄属性;
交互模块502,包括:
第二确定单元,用于确定年龄属性对应的语音播报音色;
第二交互单元,用于以语音播报音色,与交互对象进行语音交互。
可选地,获得模块501,具体用于:
统计交互对象在目标时长内的语音输出字数,并根据目标时长和语音输出字数,计算交互对象的对象语速。
可选地,智能机器人包括摄像头;
获得模块501,具体用于:
调用摄像头采集交互对象的面部图像,并根据面部图像,获得交互对象的对象情绪。
本发明实施例中,在语音交互场景下,智能机器人可以获得交互对象的对象特征信息,并按照与对象特征信息匹配的语音播报参数,与交互对象进行语音交互。可见,本发明实施例中,智能机器人可以根据交互对象的实际情况,对所使用的语音播报参数进行灵活地调整,也就是说,智能机器人使用的语音交互策略是多样化和个性化的,因此,与现有技术中使用固定的语音交互策略的情况相比,本发明实施例中,智能机器人能够提供更为人性化的服务,语音交互效果能够得到有效地提升。
参见图6,图中示出了本发明实施例提供的智能机器人600的结构示意图。如图6所示,智能机器人600包括:处理器601、存储器603、用户接口604和总线接口。
处理器601,用于读取存储器603中的程序,执行下列过程:
在语音交互场景下,获得交互对象的对象特征信息;
按照与对象特征信息匹配的语音播报参数,与交互对象进行语音交互。
在图6中,总线架构可以包括任意数量的互联的总线和桥,具体由处理器601代表的一个或多个处理器和存储器603代表的存储器的各种电路链接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。针对不同的用户设备,用户接口604还可以是能够外接内接需要设备的接口,连接的设备包括但不限于小键盘、显示器、扬声器、麦克风、操纵杆等。
处理器601负责管理总线架构和通常的处理,存储器603可以存储处理器601在执行操作时所使用的数据。
可选地,对象特征信息中包括以下至少一项:
对象语音输出参数、对象情绪和对象属性;
其中,对象语音输出参数中包括对象语速、对象音量和对象音色中的至少一项,对象属性中包括对象年龄属性、对象性别属性和对象肤色属性中的至少一项。
可选地,对象特征信息中包括对象语音输出参数,对象语音输出参数中包括对象语速;
处理器601,具体用于:
确定对象语速对应的语音播报速度;
以语音播报速度,与交互对象进行语音交互。
可选地,对象特征信息中包括对象情绪;
可选地,任一第二输出结果中还包括其所包括的每个子特征序列中的每个子特征对应的权重;
处理器601,具体用于:
在对象情绪为焦急情绪的情况下,以第一语音播报速度与交互对象进行语音交互;否则,以第二语音播报速度与交互对象进行语音交互;
其中,第一语音播报速度快于第二语音播报速度。
可选地,对象特征信息中包括对象属性,对象属性中包括对象年龄属性;
处理器601,具体用于:
确定年龄属性对应的语音播报音色;
以语音播报音色,与交互对象进行语音交互。
可选地,处理器601,具体用于:
统计交互对象在目标时长内的语音输出字数,并根据目标时长和语音输出字数,计算交互对象的对象语速。
可选地,智能机器人包括摄像头;
处理器601,具体用于:
调用摄像头采集交互对象的面部图像,并根据面部图像,获得交互对象的对象情绪。
本发明实施例中,在语音交互场景下,智能机器人600可以获得交互对象的对象特征信息,并按照与对象特征信息匹配的语音播报参数,与交互对象进行语音交互。可见,本发明实施例中,智能机器人600可以根据交互对象的实际情况,对所使用的语音播报参数进行灵活地调整,也就是说,智能机器人600使用的语音交互策略是多样化和个性化的,因此,与现有技术中使用固定的语音交互策略的情况相比,本发明实施例中,智能机器人600能够提供更为人性化的服务,语音交互效果能够得到有效地提升。
优选地,本发明实施例还提供一种智能机器人,包括处理器601,存储器603,存储在存储器603上并可在处理器601上运行的计算机程序,该计算机程序被处理器601执行时实现上述语音交互方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述语音交互方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (14)
1.一种语音交互方法,其特征在于,应用于智能机器人,所述方法包括:
在语音交互场景下,获得交互对象的对象特征信息;
按照与所述对象特征信息匹配的语音播报参数,与所述交互对象进行语音交互。
2.根据权利要求1所述的方法,其特征在于,所述对象特征信息中包括以下至少一项:
对象语音输出参数、对象情绪和对象属性;
其中,所述对象语音输出参数中包括对象语速、对象音量和对象音色中的至少一项,所述对象属性中包括对象年龄属性、对象性别属性和对象肤色属性中的至少一项。
3.根据权利要求2所述的方法,其特征在于,所述对象特征信息中包括对象语音输出参数,所述对象语音输出参数中包括对象语速;
所述按照与所述对象特征信息匹配的语音播报参数,与所述交互对象进行语音交互,包括:
确定所述对象语速对应的语音播报速度;
以所述语音播报速度,与所述交互对象进行语音交互。
4.根据权利要求2所述的方法,其特征在于,所述对象特征信息中包括对象情绪;
所述按照与所述对象特征信息匹配的语音播报参数,与所述交互对象进行语音交互,包括:
在所述对象情绪为焦急情绪的情况下,以第一语音播报速度与所述交互对象进行语音交互;否则,以第二语音播报速度与所述交互对象进行语音交互;
其中,所述第一语音播报速度快于所述第二语音播报速度。
5.根据权利要求2所述的方法,其特征在于,所述对象特征信息中包括对象属性,所述对象属性中包括对象年龄属性;
所述按照与所述对象特征信息匹配的语音播报参数,与所述交互对象进行语音交互,包括:
确定所述年龄属性对应的语音播报音色;
以所述语音播报音色,与所述交互对象进行语音交互。
6.根据权利要求2所述的方法,其特征在于,
所述获得交互对象的对象特征信息,包括:
统计交互对象在目标时长内的语音输出字数,并根据所述目标时长和所述语音输出字数,计算所述交互对象的对象语速;
和/或,
所述智能机器人包括摄像头;
所述获得交互对象的对象特征信息,包括:
调用所述摄像头采集交互对象的面部图像,并根据所述面部图像,获得所述交互对象的对象情绪。
7.一种语音交互装置,其特征在于,应用于智能机器人,所述装置包括:
获得模块,用于在语音交互场景下,获得交互对象的对象特征信息;
交互模块,用于按照与所述对象特征信息匹配的语音播报参数,与所述交互对象进行语音交互。
8.根据权利要求7所述的装置,其特征在于,所述对象特征信息中包括以下至少一项:
对象语音输出参数、对象情绪和对象属性;
其中,所述对象语音输出参数中包括对象语速、对象音量和对象音色中的至少一项,所述对象属性中包括对象年龄属性、对象性别属性和对象肤色属性中的至少一项。
9.根据权利要求8所述的装置,其特征在于,所述对象特征信息中包括对象语音输出参数,所述对象语音输出参数中包括对象语速;
所述交互模块,包括:
第一确定单元,用于确定所述对象语速对应的语音播报速度;
第一交互单元,用于以所述语音播报速度,与所述交互对象进行语音交互。
10.根据权利要求8所述的装置,其特征在于,所述对象特征信息中包括对象情绪;
所述交互模块,具体用于:
在所述对象情绪为焦急情绪的情况下,以第一语音播报速度与所述交互对象进行语音交互;否则,以第二语音播报速度与所述交互对象进行语音交互;
其中,所述第一语音播报速度快于所述第二语音播报速度。
11.根据权利要求8所述的装置,其特征在于,所述对象特征信息中包括对象属性,所述对象属性中包括对象年龄属性;
所述交互模块,包括:
第二确定单元,用于确定所述年龄属性对应的语音播报音色;
第二交互单元,用于以所述语音播报音色,与所述交互对象进行语音交互。
12.根据权利要求8所述的装置,其特征在于,
所述获得模块,具体用于:
统计交互对象在目标时长内的语音输出字数,并根据所述目标时长和所述语音输出字数,计算所述交互对象的对象语速;
和/或,
所述智能机器人包括摄像头;
所述获得模块,具体用于:
调用所述摄像头采集交互对象的面部图像,并根据所述面部图像,获得所述交互对象的对象情绪。
13.一种智能机器人,其特征在于,包括处理器,存储器,存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至6中任一项所述的语音交互方法的步骤。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的语音交互方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910333028.XA CN110085225B (zh) | 2019-04-24 | 2019-04-24 | 语音交互方法、装置、智能机器人及计算机可读存储介质 |
US16/709,554 US20200342854A1 (en) | 2019-04-24 | 2019-12-10 | Method and apparatus for voice interaction, intelligent robot and computer readable storage medium |
JP2020001208A JP6914377B2 (ja) | 2019-04-24 | 2020-01-08 | 音声対話方法、装置、スマートロボット及びコンピュータ可読記憶媒体 |
KR1020200003285A KR102360062B1 (ko) | 2019-04-24 | 2020-01-09 | 음성 인터랙션 방법, 장치, 지능형 로봇 및 컴퓨터 판독 가능 저장 매체 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910333028.XA CN110085225B (zh) | 2019-04-24 | 2019-04-24 | 语音交互方法、装置、智能机器人及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110085225A true CN110085225A (zh) | 2019-08-02 |
CN110085225B CN110085225B (zh) | 2024-01-02 |
Family
ID=67416391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910333028.XA Active CN110085225B (zh) | 2019-04-24 | 2019-04-24 | 语音交互方法、装置、智能机器人及计算机可读存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200342854A1 (zh) |
JP (1) | JP6914377B2 (zh) |
KR (1) | KR102360062B1 (zh) |
CN (1) | CN110085225B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110609554A (zh) * | 2019-09-17 | 2019-12-24 | 重庆特斯联智慧科技股份有限公司 | 一种机器人移动控制方法及装置 |
CN110992947A (zh) * | 2019-11-12 | 2020-04-10 | 北京字节跳动网络技术有限公司 | 一种基于语音的交互方法、装置、介质和电子设备 |
CN111081244A (zh) * | 2019-12-23 | 2020-04-28 | 广州小鹏汽车科技有限公司 | 一种语音交互方法和装置 |
CN111696533A (zh) * | 2020-06-28 | 2020-09-22 | 中国银行股份有限公司 | 网点机器人自调节方法及装置 |
CN112151064A (zh) * | 2020-09-25 | 2020-12-29 | 北京捷通华声科技股份有限公司 | 话术播报方法、装置、计算机可读存储介质和处理器 |
CN112185344A (zh) * | 2020-09-27 | 2021-01-05 | 北京捷通华声科技股份有限公司 | 语音交互方法、装置、计算机可读存储介质和处理器 |
CN112201222A (zh) * | 2020-12-03 | 2021-01-08 | 深圳追一科技有限公司 | 基于语音通话的语音交互方法、装置、设备和存储介质 |
CN112820270A (zh) * | 2020-12-17 | 2021-05-18 | 北京捷通华声科技股份有限公司 | 语音播报方法、装置和智能设备 |
CN112959963A (zh) * | 2021-03-22 | 2021-06-15 | 恒大新能源汽车投资控股集团有限公司 | 车载服务的提供方法、装置及电子设备 |
CN113160832A (zh) * | 2021-04-30 | 2021-07-23 | 合肥美菱物联科技有限公司 | 一种支持声纹识别的语音洗衣机智能控制系统及方法 |
CN114267352A (zh) * | 2021-12-24 | 2022-04-01 | 北京信息科技大学 | 一种语音信息处理方法及电子设备、计算机存储介质 |
CN115101048A (zh) * | 2022-08-24 | 2022-09-23 | 深圳市人马互动科技有限公司 | 科普信息交互方法、装置、系统、交互设备和存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112820289A (zh) * | 2020-12-31 | 2021-05-18 | 广东美的厨房电器制造有限公司 | 语音播放方法、语音播放系统、电器和可读存储介质 |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001272991A (ja) * | 2000-03-24 | 2001-10-05 | Sanyo Electric Co Ltd | 音声対話方法及び音声対話装置 |
CN103730117A (zh) * | 2012-10-12 | 2014-04-16 | 中兴通讯股份有限公司 | 一种自适应智能语音装置及方法 |
CN104409085A (zh) * | 2014-11-24 | 2015-03-11 | 惠州Tcl移动通信有限公司 | 一种车载智能音乐播放器及其音乐播放方法 |
CN106504743A (zh) * | 2016-11-14 | 2017-03-15 | 北京光年无限科技有限公司 | 一种用于智能机器人的语音交互输出方法及机器人 |
CN106803423A (zh) * | 2016-12-27 | 2017-06-06 | 智车优行科技(北京)有限公司 | 基于用户情绪状态的人机交互语音控制方法、装置及车辆 |
CN106843463A (zh) * | 2016-12-16 | 2017-06-13 | 北京光年无限科技有限公司 | 一种用于机器人的交互输出方法 |
CN107272900A (zh) * | 2017-06-21 | 2017-10-20 | 叶富阳 | 一种自主式可穿戴音乐播放器 |
CN107340991A (zh) * | 2017-07-18 | 2017-11-10 | 百度在线网络技术(北京)有限公司 | 语音角色的切换方法、装置、设备以及存储介质 |
CN107452400A (zh) * | 2017-07-24 | 2017-12-08 | 珠海市魅族科技有限公司 | 语音播报方法及装置、计算机装置和计算机可读存储介质 |
CN107545029A (zh) * | 2017-07-17 | 2018-01-05 | 百度在线网络技术(北京)有限公司 | 智能设备的语音反馈方法、设备及可读介质 |
CN107731225A (zh) * | 2016-08-10 | 2018-02-23 | 松下知识产权经营株式会社 | 待客装置、待客方法以及待客系统 |
CN107959881A (zh) * | 2017-12-06 | 2018-04-24 | 安徽省科普产品工程研究中心有限责任公司 | 一种基于儿童情绪的视频教学系统 |
CN107972028A (zh) * | 2017-07-28 | 2018-05-01 | 北京物灵智能科技有限公司 | 人机交互方法、装置及电子设备 |
CN108363706A (zh) * | 2017-01-25 | 2018-08-03 | 北京搜狗科技发展有限公司 | 人机对话交互的方法和装置、用于人机对话交互的装置 |
CN108469966A (zh) * | 2018-03-21 | 2018-08-31 | 北京金山安全软件有限公司 | 语音播报控制方法、装置、智能设备及介质 |
CN108780361A (zh) * | 2018-02-05 | 2018-11-09 | 深圳前海达闼云端智能科技有限公司 | 人机交互方法、装置、机器人及计算机可读存储介质 |
CN108847239A (zh) * | 2018-08-31 | 2018-11-20 | 上海擎感智能科技有限公司 | 语音交互/处理方法、系统、存储介质、车机端及服务端 |
CN109119077A (zh) * | 2018-08-20 | 2019-01-01 | 深圳市三宝创新智能有限公司 | 一种机器人语音交互系统 |
CN109272984A (zh) * | 2018-10-17 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 用于语音交互的方法和装置 |
CN109348068A (zh) * | 2018-12-03 | 2019-02-15 | 咪咕数字传媒有限公司 | 一种信息处理方法、装置及存储介质 |
CN109446303A (zh) * | 2018-10-09 | 2019-03-08 | 深圳市三宝创新智能有限公司 | 机器人交互方法、装置、计算机设备及可读存储介质 |
US20190096400A1 (en) * | 2017-09-26 | 2019-03-28 | Baidu Online Network Technology (Beijing) Co., Ltd | Method and apparatus for providing voice service |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI221574B (en) * | 2000-09-13 | 2004-10-01 | Agi Inc | Sentiment sensing method, perception generation method and device thereof and software |
JP2003271194A (ja) * | 2002-03-14 | 2003-09-25 | Canon Inc | 音声対話装置及びその制御方法 |
JP2004163541A (ja) * | 2002-11-11 | 2004-06-10 | Mitsubishi Electric Corp | 音声応答装置 |
JP2008026463A (ja) * | 2006-07-19 | 2008-02-07 | Denso Corp | 音声対話装置 |
JP5750839B2 (ja) * | 2010-06-14 | 2015-07-22 | 日産自動車株式会社 | 音声情報提示装置および音声情報提示方法 |
WO2013187610A1 (en) * | 2012-06-15 | 2013-12-19 | Samsung Electronics Co., Ltd. | Terminal apparatus and control method thereof |
JP6452420B2 (ja) * | 2014-12-08 | 2019-01-16 | シャープ株式会社 | 電子機器、発話制御方法、およびプログラム |
KR20180124564A (ko) * | 2017-05-12 | 2018-11-21 | 네이버 주식회사 | 수신된 음성 입력의 입력 음량에 기반하여 출력될 소리의 출력 음량을 조절하는 사용자 명령 처리 방법 및 시스템 |
-
2019
- 2019-04-24 CN CN201910333028.XA patent/CN110085225B/zh active Active
- 2019-12-10 US US16/709,554 patent/US20200342854A1/en not_active Abandoned
-
2020
- 2020-01-08 JP JP2020001208A patent/JP6914377B2/ja active Active
- 2020-01-09 KR KR1020200003285A patent/KR102360062B1/ko active IP Right Grant
Patent Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001272991A (ja) * | 2000-03-24 | 2001-10-05 | Sanyo Electric Co Ltd | 音声対話方法及び音声対話装置 |
CN103730117A (zh) * | 2012-10-12 | 2014-04-16 | 中兴通讯股份有限公司 | 一种自适应智能语音装置及方法 |
CN104409085A (zh) * | 2014-11-24 | 2015-03-11 | 惠州Tcl移动通信有限公司 | 一种车载智能音乐播放器及其音乐播放方法 |
CN107731225A (zh) * | 2016-08-10 | 2018-02-23 | 松下知识产权经营株式会社 | 待客装置、待客方法以及待客系统 |
CN106504743A (zh) * | 2016-11-14 | 2017-03-15 | 北京光年无限科技有限公司 | 一种用于智能机器人的语音交互输出方法及机器人 |
CN106843463A (zh) * | 2016-12-16 | 2017-06-13 | 北京光年无限科技有限公司 | 一种用于机器人的交互输出方法 |
CN106803423A (zh) * | 2016-12-27 | 2017-06-06 | 智车优行科技(北京)有限公司 | 基于用户情绪状态的人机交互语音控制方法、装置及车辆 |
CN108363706A (zh) * | 2017-01-25 | 2018-08-03 | 北京搜狗科技发展有限公司 | 人机对话交互的方法和装置、用于人机对话交互的装置 |
CN107272900A (zh) * | 2017-06-21 | 2017-10-20 | 叶富阳 | 一种自主式可穿戴音乐播放器 |
CN107545029A (zh) * | 2017-07-17 | 2018-01-05 | 百度在线网络技术(北京)有限公司 | 智能设备的语音反馈方法、设备及可读介质 |
CN107340991A (zh) * | 2017-07-18 | 2017-11-10 | 百度在线网络技术(北京)有限公司 | 语音角色的切换方法、装置、设备以及存储介质 |
CN107452400A (zh) * | 2017-07-24 | 2017-12-08 | 珠海市魅族科技有限公司 | 语音播报方法及装置、计算机装置和计算机可读存储介质 |
CN107972028A (zh) * | 2017-07-28 | 2018-05-01 | 北京物灵智能科技有限公司 | 人机交互方法、装置及电子设备 |
US20190096400A1 (en) * | 2017-09-26 | 2019-03-28 | Baidu Online Network Technology (Beijing) Co., Ltd | Method and apparatus for providing voice service |
CN107959881A (zh) * | 2017-12-06 | 2018-04-24 | 安徽省科普产品工程研究中心有限责任公司 | 一种基于儿童情绪的视频教学系统 |
CN108780361A (zh) * | 2018-02-05 | 2018-11-09 | 深圳前海达闼云端智能科技有限公司 | 人机交互方法、装置、机器人及计算机可读存储介质 |
CN108469966A (zh) * | 2018-03-21 | 2018-08-31 | 北京金山安全软件有限公司 | 语音播报控制方法、装置、智能设备及介质 |
CN109119077A (zh) * | 2018-08-20 | 2019-01-01 | 深圳市三宝创新智能有限公司 | 一种机器人语音交互系统 |
CN108847239A (zh) * | 2018-08-31 | 2018-11-20 | 上海擎感智能科技有限公司 | 语音交互/处理方法、系统、存储介质、车机端及服务端 |
CN109446303A (zh) * | 2018-10-09 | 2019-03-08 | 深圳市三宝创新智能有限公司 | 机器人交互方法、装置、计算机设备及可读存储介质 |
CN109272984A (zh) * | 2018-10-17 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 用于语音交互的方法和装置 |
CN109348068A (zh) * | 2018-12-03 | 2019-02-15 | 咪咕数字传媒有限公司 | 一种信息处理方法、装置及存储介质 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110609554B (zh) * | 2019-09-17 | 2023-01-17 | 重庆特斯联智慧科技股份有限公司 | 一种机器人移动控制方法及装置 |
CN110609554A (zh) * | 2019-09-17 | 2019-12-24 | 重庆特斯联智慧科技股份有限公司 | 一种机器人移动控制方法及装置 |
CN110992947A (zh) * | 2019-11-12 | 2020-04-10 | 北京字节跳动网络技术有限公司 | 一种基于语音的交互方法、装置、介质和电子设备 |
CN111081244A (zh) * | 2019-12-23 | 2020-04-28 | 广州小鹏汽车科技有限公司 | 一种语音交互方法和装置 |
CN111696533A (zh) * | 2020-06-28 | 2020-09-22 | 中国银行股份有限公司 | 网点机器人自调节方法及装置 |
CN111696533B (zh) * | 2020-06-28 | 2023-02-21 | 中国银行股份有限公司 | 网点机器人自调节方法及装置 |
CN112151064A (zh) * | 2020-09-25 | 2020-12-29 | 北京捷通华声科技股份有限公司 | 话术播报方法、装置、计算机可读存储介质和处理器 |
CN112185344A (zh) * | 2020-09-27 | 2021-01-05 | 北京捷通华声科技股份有限公司 | 语音交互方法、装置、计算机可读存储介质和处理器 |
CN112201222A (zh) * | 2020-12-03 | 2021-01-08 | 深圳追一科技有限公司 | 基于语音通话的语音交互方法、装置、设备和存储介质 |
CN112201222B (zh) * | 2020-12-03 | 2021-04-06 | 深圳追一科技有限公司 | 基于语音通话的语音交互方法、装置、设备和存储介质 |
CN112820270A (zh) * | 2020-12-17 | 2021-05-18 | 北京捷通华声科技股份有限公司 | 语音播报方法、装置和智能设备 |
CN112959963A (zh) * | 2021-03-22 | 2021-06-15 | 恒大新能源汽车投资控股集团有限公司 | 车载服务的提供方法、装置及电子设备 |
CN113160832A (zh) * | 2021-04-30 | 2021-07-23 | 合肥美菱物联科技有限公司 | 一种支持声纹识别的语音洗衣机智能控制系统及方法 |
CN114267352A (zh) * | 2021-12-24 | 2022-04-01 | 北京信息科技大学 | 一种语音信息处理方法及电子设备、计算机存储介质 |
CN115101048A (zh) * | 2022-08-24 | 2022-09-23 | 深圳市人马互动科技有限公司 | 科普信息交互方法、装置、系统、交互设备和存储介质 |
CN115101048B (zh) * | 2022-08-24 | 2022-11-11 | 深圳市人马互动科技有限公司 | 科普信息交互方法、装置、系统、交互设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6914377B2 (ja) | 2021-08-04 |
US20200342854A1 (en) | 2020-10-29 |
CN110085225B (zh) | 2024-01-02 |
JP2020181183A (ja) | 2020-11-05 |
KR102360062B1 (ko) | 2022-02-09 |
KR20200124595A (ko) | 2020-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110085225A (zh) | 语音交互方法、装置、智能机器人及计算机可读存储介质 | |
US20200302180A1 (en) | Image recognition method and apparatus, terminal, and storage medium | |
CN109326289A (zh) | 免唤醒语音交互方法、装置、设备及存储介质 | |
CN108537017B (zh) | 一种用于管理游戏用户的方法与设备 | |
CN107894833A (zh) | 基于虚拟人的多模态交互处理方法及系统 | |
CN109176535A (zh) | 基于智能机器人的交互方法及系统 | |
CN107944542A (zh) | 一种基于虚拟人的多模态交互输出方法及系统 | |
CN107392783A (zh) | 基于虚拟现实的社交方法及装置 | |
CN110310647A (zh) | 一种语音身份特征提取器、分类器训练方法及相关设备 | |
JP7036046B2 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
CN108460398A (zh) | 图像处理方法、装置、云处理设备和计算机程序产品 | |
CN109278051A (zh) | 基于智能机器人的交互方法及系统 | |
WO2016115835A1 (zh) | 人体特征数据的处理方法及装置 | |
CN107480624A (zh) | 常住人口获取方法、装置及系统、计算机装置和存储介质 | |
CN106503043A (zh) | 一种用于智能机器人的交互数据处理方法 | |
CN109949116A (zh) | 服饰搭配推荐方法、装置、存储介质及移动终端 | |
CN106774845A (zh) | 一种智能交互方法、装置及终端设备 | |
CN114187547A (zh) | 目标视频的输出方法及装置、存储介质及电子装置 | |
CN108052250A (zh) | 基于多模态交互的虚拟偶像演绎数据处理方法及系统 | |
CN106502382A (zh) | 用于智能机器人的主动交互方法和系统 | |
CN109948093A (zh) | 表情图片生成方法、装置及电子设备 | |
CN110210449A (zh) | 一种用于虚拟现实交友的人脸识别系统及方法 | |
CN108595012A (zh) | 基于虚拟人的视觉交互方法及系统 | |
CN107463684A (zh) | 语音回复方法及装置、计算机装置和计算机可读存储介质 | |
CN106844378A (zh) | 一种应答方式确定方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |