CN106695825A - 一种传话家用服务机器人 - Google Patents

一种传话家用服务机器人 Download PDF

Info

Publication number
CN106695825A
CN106695825A CN201611213947.6A CN201611213947A CN106695825A CN 106695825 A CN106695825 A CN 106695825A CN 201611213947 A CN201611213947 A CN 201611213947A CN 106695825 A CN106695825 A CN 106695825A
Authority
CN
China
Prior art keywords
expression
dialogue
voice
recognition
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611213947.6A
Other languages
English (en)
Other versions
CN106695825B (zh
Inventor
高霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ge Wendan
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201611213947.6A priority Critical patent/CN106695825B/zh
Publication of CN106695825A publication Critical patent/CN106695825A/zh
Application granted granted Critical
Publication of CN106695825B publication Critical patent/CN106695825B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种传话家用服务机器人,该传话家用服务机器人针对有听力障碍的家庭成员使用,包括:主体结构,中央处理器,存储器,图像处理单元,语音识别单元,语音输出单元,显示单元,行走单元,电源,这些组件通信连接;该传话家用服务机器人在传话的过程中,始终将显示单元面向具有听力障碍的对话成员,通过对具有听力障碍的对话成员的表情、姿势、和/或手势的识别,作不同类型的“助听”处理;能够帮助具有听力障碍的对话成员顺畅的和家人聊天、对话,轻松化解听力障碍人士的尴尬和痛苦。

Description

一种传话家用服务机器人
技术领域
本发明属于智能家居和计算机领域,尤其涉及一种传话家用服务机器人。
背景技术
中国人口老龄化问题日益突出、人工成本急剧上升以及整体经济结构面临转型,机器人未来的崛起及其巨大的市场规模已经被各大机构认可。此外,随着经济水平的上升,人们可支配收入的增加,使得人们能够购买服务机器人来解放简单的重复劳动,获得更多的空闲时间。而更可喜的是进入互联网时代后人类的科学技术迅猛发展,得益于计算机和微芯片的发展,智能服务机器人更新换代的速度将越来越快,成本下降,能实现的功能越来越多,实现更便捷更安全更精确。可见,未来无论短期或是长期,机器人行业的投资机遇巨大,服务机器人有着十分可观的市场规模。
由于在人机交互领域有深厚的技术积累,家用服务机器人首先在聊天机器人领域取得了突破,目前市场上有大量的聊天机器人产品,但是这些利用语音交互技术的机器人通常仅仅是从屏幕上走了下来(例如,siri和小i),能够和某个人或者某些人进行简单的对话,这类机器人在技术的改进也多数集中在知识库、学习能力和定位等方面,但由于机器人的理解能力有限,往往不能达到很好的效果。家用服务机器人因为价钱昂贵,效果一般,经历了近几年的发展仍然没有走进寻常百姓家。
因此,需要针对特定的家用需求,来细化家用服务机器人的功能,使机器人真正的找到在家庭中的位置。随着社会老龄化的进展,越来越多的家庭出现了有听力障碍的老人,他们的听力出现不同程度的减退,但是往往并不是完全丧失了听力,暂时没有安装耳蜗的必要性,而选择助听设备有可能加速听力下降。但是家庭中普通的对话都可能频繁的出现“打岔”,会引起和其他家庭成员之间存在交流不畅的问题,容易引起家庭之间误解和矛盾。
发明内容
为了解决现有技术中的上述问题,本发明提出了一种传话家用服务机器人。
本发明采用的技术方案如下:一种传话家用服务机器人,其特征在于,该机器人包括:主体结构,中央处理器,存储器,图像处理单元,语音识别单元,语音输出单元,显示单元,行走单元,电源,这些组件通信连接:
主体结构用于进行收纳和/或支撑,主体结构外部设置显示单元;
图像处理单元包括图像获取模块,图像识别模块,姿势和手势识别模块;用于识别具有听力障碍的对话成员的表情、姿势、和/或手势,并返回识别结果;
中央处理器用于基于获取到的不同识别结果作不同类型的“助听”处理;
语音识别单元,用于获取另一对话成员上一句话/话语组,在另一对话成员完成一句话/话语组时,将获取到的语音进行实时处理得到文本形式的识别结果,并将获取到的语音和文本形式的识别结果关联起来保存到存储器;在对话成员完成一句话/话语组后,持续获取并识别对话成员的回答;
语音输出单元,在中央处理器的控制下将语音识别结果输出。
进一步的,传话家用服务机器人中还可以设置听力障碍成员设置和识别模块,用于设置具有听力障碍的对话成员的标识并记录其特征信息,以快速识别出听力障碍成员。
进一步的,图像获取模块获取对话成员脸部图像、和/或对话成员的姿势图像、和/或对话成员的手势图像,并将所获取的脸部图像信息传送给图像识别模块,将姿势图像和/手势图像传送给姿势和手势识别模块。
进一步的,图像识别模块对获取到的面部图像进行初步处理,形成表情图像,识别对话成员的表情,并将表情识别结果发送给中央处理器;姿势和手势识别模块对获取到的姿势图像和手势图像进行处理,识别对话成员的手势和/或姿势,并将手势和/或姿势识别结果发送给中央处理器。
进一步的,图像识别模块还包含图像样本模块,图像样本模块在特定模式下,录入家庭成员的表情样本图像;表情样本图像和被采集对话成员标识作关联存储,该对话成员的特定类型表情可以和多张表情样本关联存储。
进一步的,图像样本模块基于采集到的对话成员的表情样本图像进行识别,具体方式为:将当前获取的对话成员A的表情图像C和该对话成员A的所有类型表情进行比较,直到得到识别结果或者所有表情类型均对比过为止;
如当次针对微笑类型表情Tsmile作对比,假设对应于对话成员A的微笑类型表情Tsmile,保存有n张表情样本图像P1~Pn,当前获取的表情图像为C,根据公式(1)计算表情偏差熵S,将表情偏差熵和熵阈值Ts进行比较,表情偏差熵小于熵阈值Ts时,判定该表情图像C对应的对话成员表情为微笑表情类型Tsmile,将微笑表情Tsmile作为识别结果返回;如果表情偏差熵大于等于熵阈值Ts时,则继续对比下一表情类型Tx,依次对比所有表情类型,直到得到识别结果或者所有表情类型均对比过为止;如果对比结束,仍然没有得到识别结果,则将“无识别结果”作为识别结果返回。
进一步的,采用加权公式(2)计算表情偏差熵S,其中wi表示表情样本图像Pi对应的权值;
进一步的,中央处理器针对表情识别结果的处理为:如果识别结果为困惑表情、或者注视传话家用机器人表情时,则将另一对话成员上一句话/话语组的语音识别结果显示在显示单元上,同时,将该上一句话/话语组通过语音输出单元输出以进行重复;
如果识别结果为态度明确表情,此时不做处理;
如果识别结果为其他类型表情或者“无识别结果”,则仅将另一对话成员上一句话/话语组的语音识别结果显示在显示单元上。
进一步的,中央处理器针对姿势/手势识别结果的处理为:如果识别头部姿势为点头时,不做处理;如果识别结果为第一特定姿势/手势,则将另一对话成员上一句话/话语组的语音识别结果显示在显示单元上,同时,将该上一句话/话语组通过语音输出单元输出以进行重复。
本发明的有益效果包括:提供一种传话家用服务机器人,针对有听力障碍的家庭成员使用,能够帮助他们顺畅的和家人聊天、对话,轻松化解听力障碍人士的尴尬和痛苦。
附图说明
此处所说明的附图是用来提供对本发明的进一步理解,构成本申请的一部分,但并不构成对本发明的不当限定,在附图中:
图1是本发明传话家用服务机器人的总体架构图。
具体实施方式
下面将结合附图以及具体实施例来详细说明本发明,其中的示意性实施例以及说明仅用来解释本发明,但并不作为对本发明的限定。
参见附图1,其示出了本发明所应用的传话家用服务机器人,该传话机器人包括:主体结构,中央处理器,存储器,图像处理单元,语音识别单元,语音输出单元,显示单元,行走单元,电源,这些组件通信连接。
主体结构外部设置显示单元;主体结构内部容纳中央处理器,存储器,显示单元,电源模块;行走单元设置于主体结构底部;主体结构也可设置为可自移动的形式(行走单元就是主体结构本身),例如:球形,从而可以自行移动。主体机构可以为任何形状,例如:人形,类人形,宠物形象,球形等。
图像处理单元包括图像获取模块,图像识别模块,姿势和手势识别模块;图像获取模块获取对话成员脸部图像、和/或对话成员的姿势图像、和/或对话成员的手势图像,并将所获取的脸部图像信息传送给图像识别模块,将姿势图像和/手势图像传送给姿势和手势识别模块;图像获取模块置于主体结构外部,可以360度转动以对准图像获取对象;图像识别模块对获取到的面部图像进行初步处理,形成表情图像,识别对话成员的表情,并将表情识别结果发送给中央处理器;姿势和手势识别模块对获取到的姿势图像和手势图像进行处理,识别对话成员的手势和/或姿势,并将手势和/或姿势识别结果发送给中央处理器。
图像识别模块可以基于现有的表情识别方法作识别;图像识别模块还可以包含图像样本模块,图像样本模块基于采集到的特定对话成员的表情样本图像进行识别,在特定模式(例如:初始设定模式,家庭成员录入模式等)下,录入家庭成员的表情样本图像,例如:困惑表情、微笑表情、伤心表情等;图像样本模块还可以在图像识别的过程中不断学习,更新样本库。图像识别模块将表情样本图像和被采集对话成员标识作关联存储,该家庭成员的特定表情可以和多张表情样本关联存储,这些表情样本图像被保存在样本库中,样本库可以保存在图像识别模块内置的存储空间中,或者保存在存储器中。
基于图像样本模块进行识别的方式如下:以微笑表情识别为例,假设对应于对话成员A的微笑表情,保存有n张表情样本图像P1~Pn,当前获取的表情图像为C,根据公式(1)计算表情偏差熵S,将表情偏差熵和熵阈值Ts进行比较,表情偏差熵小于熵阈值Ts时,判定该表情图像C对应的对话成员表情为微笑表情,将微笑表情作为识别结果返回;如果表情偏差熵大于等于熵阈值Ts时,则继续对比下一表情类型,依次对比所有表情类型,直到得到识别结果或者所有表情类型均对比过为止。
也可以采用加权公式(2)计算表情偏差熵S,其中wi表示表情样本图像Pi对应的权值;
如果对比结束,仍然没有得到识别结果,则将“无识别结果”作为识别结果返回。
对于在更新过程中命中率高的表情赋予较高的权值,反之赋予较低的权值,并基于该权值进行表情样本图像的更新。可以在表情识别的过程中同时进行表情样本图像的更新,每次识别过程中,和当前表情图像相比,差异最小的表情样本图像命中率加1,在一种表情样本图像的个数超过设定值时,将命中率最低表情样本图像删除,设定值可以是机器人默认设置,也可以用户设置。
姿势和手势识别模块用于对手势和姿势进行识别,可以基于现有的识别方法进行识别,例如,基于kidnet技术进行姿势识别。还可以包含姿势和手势样本模块,姿势和手势样本模块基于收集到的特定家庭成员的样本进行识别。在识别完毕后返回识别结果。
中央处理器用于对获取到的识别结果进行处理。针对表情识别结果:如果识别结果为困惑表情、或者注视传话家用机器人表情时,则将另一对话成员上一句话/话语组的语音识别结果显示在显示单元上,同时,将该上一句话/话语组通过语音输出单元输出以进行重复;如果对话成员表情困惑,可以确定对话用户因为没有听清楚而不知道如何作答,此时同时用文本和声音的方式提醒对话成员对方所说的内容,一方面可以帮助对话成员快速了解对话内容,另一方面也是对另一对话成语的提醒,提醒其降低语速。当对话成员注视传化家用机器人时,也可以确定他很希望得到帮助,因此采用语音和文本的同时提示。如果识别结果为高兴、悲伤、惊讶等态度明确表情,则认为听力障碍者已经知道了对方的谈话内容,此时不做处理;这种情况下可以确定对话成员基本上听懂了,因此不做处理(也可以在屏幕上显示“你很棒”等鼓励性语言),从而让对话成员有成就感的同时,不打扰对话的进行。如果识别结果为其他,则仅将另一对话成员上一句话/话语组的语音识别结果显示在显示单元上,此时对话成员可能听到对话内容,也可能没有听到对话内容,因此仅仅进行文本提示,可以不打扰对话的进行,另一对话成员可以继续进行对话。
针对姿势/手势识别结果;如果识别头部姿势为点头,则认为听力障碍者已经知道了对方的谈话内容,此时不做处理;如果识别结果为第一特定姿势/手势,则将另一对话成员上一句话/话语组的语音识别结果显示在显示单元上,同时,将该上一句话/话语组通过语音输出单元输出以进行重复。考虑到对话成员有时候可能会主动向传话家用机器人求助,此时可借助约定手势或者姿势完成,通过建立特定手势/姿势和其含义的对应关系,达到帮助对话成员的目的。例如:设置“剪刀手”手势表示“我听不清”,当对话成员给出“剪刀手”手势时,同时给予语音和文本提示帮助。
针对“重复”通知消息,立即将另一对话成员(非听力障碍成员)上一句话/话语组的语音识别结果显示在显示单元上,此时无需做语音提示以避免对另一对话成员的打扰。
语音识别单元,用于获取另一对话成员上一句话/话语组,在另一对话成员完成一句话/话语组时,将获取到的语音进行实时处理得到文本形式的识别结果,并将获取到的语音和识别结果关联起来保存到存储器。在对话成员完成一句话/话语组后,持续识别对话成员的回答,当对话成员的回答为表示他没有听懂的语句时(例如:啥,再说一遍!等),发送“重复”通知消息给中央处理器。
语音输出单元,将语音识别结果输出,优选用另一对话成员的声音样式进行输出。
传话家用机器人中还可以设置听力障碍成员设置和识别模块,用于设置听力障碍成员特征信息并标识,例如:手工设置听力障碍成员为A,并记录该成员特征,身高,外形等;也可以在对话过程中通过学习来识别A,并更新该成员特征。特征信息和标识A关联存储于成员特征库,该成员特征库可以保存在听力障碍成员设置和识别模块中,也可以保存在存储器中。通过该成员特征,传话家用机器人在成员对话的过程中,快速识别出该成员A,在对话过程中,自动将显示单元对准于A的最佳视角,并通过传话功能“助听”。听力障碍成员可以为一个或者多个。在对话成员超过3个时,对话并不仅仅针对听力障碍成员,听力障碍成员听的压力不大,而且由于多人共同对话,语音提示会表现出很强的打断感,因此,默认设置为静音模式,此时仅仅进行文本提示,而不进行语音提示,用户可以手动更改静音模式为正常模式。
以上所述仅是本发明的较佳实施方式,故凡依本发明专利申请范围所述的构造、特征及原理所做的等效变化或修饰,均包括于本发明专利申请范围内。

Claims (9)

1.一种传话家用服务机器人,其特征在于,该机器人包括:主体结构,中央处理器,存储器,图像处理单元,语音识别单元,语音输出单元,显示单元,行走单元,电源,这些组件通信连接:
主体结构用于进行收纳和/或支撑,主体结构外部设置显示单元;
图像处理单元包括图像获取模块,图像识别模块,姿势和手势识别模块;用于识别具有听力障碍的对话成员的表情、姿势、和/或手势,并返回识别结果;
中央处理器用于基于获取到的不同识别结果作不同类型的“助听”处理;
语音识别单元,用于获取另一对话成员上一句话/话语组,在另一对话成员完成一句话/话语组时,将获取到的语音进行实时处理得到文本形式的识别结果,并将获取到的语音和文本形式的识别结果关联起来保存到存储器;在对话成员完成一句话/话语组后,持续获取并识别对话成员的回答;
语音输出单元,在中央处理器的控制下将语音识别结果输出。
2.根据权利要求1所述的机器人,其特征在于,传话家用服务机器人中还可以设置听力障碍成员设置和识别模块,用于设置具有听力障碍的对话成员的标识并记录其特征信息,以快速识别出听力障碍成员。
3.根据权利要求1-2任意一项所述的机器人,其特征在于,图像获取模块获取对话成员脸部图像、和/或对话成员的姿势图像、和/或对话成员的手势图像,并将所获取的脸部图像信息传送给图像识别模块,将姿势图像和/手势图像传送给姿势和手势识别模块。
4.根据权利要求1-3任意一项所述的机器人,其特征在于,图像识别模块对获取到的面部图像进行初步处理,形成表情图像,识别对话成员的表情,并将表情识别结果发送给中央处理器;姿势和手势识别模块对获取到的姿势图像和手势图像进行处理,识别对话成员的手势和/或姿势,并将手势和/或姿势识别结果发送给中央处理器。
5.根据权利要求1-4任意一项所述的机器人,其特征在于,图像识别模块还包含图像样本模块,图像样本模块在特定模式下,录入家庭成员的表情样本图像;表情样本图像和被采集对话成员标识作关联存储,该对话成员的特定类型表情可以和多张表情样本关联存储。
6.根据权利要求1-5任意一项所述的机器人,其特征在于,图像样本模块基于采集到的对话成员的表情样本图像进行识别,具体方式为:将当前获取的对话成员A的表情图像C和该对话成员A的所有类型表情进行比较,直到得到识别结果或者所有表情类型均对比过为止;
如当次针对微笑类型表情Tsmile作对比,假设对应于对话成员A的微笑类型表情Tsmile,保存有n张表情样本图像P1~Pn,当前获取的表情图像为C,根据公式(1)计算表情偏差熵S,将表情偏差熵和熵阈值Ts进行比较,表情偏差熵小于熵阈值Ts时,判定该表情图像C对应的对话成员表情为微笑表情类型Tsmile,将微笑表情Tsmile作为识别结果返回;如果表情偏差熵大于等于熵阈值Ts时,则继续对比下一表情类型Tx,依次对比所有表情类型,直到得到识别结果或者所有表情类型均对比过为止;如果对比结束,仍然没有得到识别结果,则将“无识别结果”作为识别结果返回。
7.根据权利要求6所述的机器人,其特征在于,采用加权公式(2)计算表情偏差熵S,其中wi表示表情样本图像Pi对应的权值;
8.根据权利要求1-5任意一项所述的机器人,其特征在于,中央处理器针对表情识别结果的处理为:如果识别结果为困惑表情、或者注视传话家用机器人表情时,则将另一对话成员上一句话/话语组的语音识别结果显示在显示单元上,同时,将该上一句话/话语组通过语音输出单元输出以进行重复;
如果识别结果为态度明确表情,此时不做处理;
如果识别结果为其他类型表情或者“无识别结果”,则仅将另一对话成员上一句话/话语组的语音识别结果显示在显示单元上。
9.根据权利要求1-5任意一项所述的机器人,其特征在于,中央处理器针对姿势/手势识别结果的处理为:如果识别头部姿势为点头时,不做处理;如果识别结果为第一特定姿势/手势,则将另一对话成员上一句话/话语组的语音识别结果显示在显示单元上,同时,将该上一句话/话语组通过语音输出单元输出以进行重复。
CN201611213947.6A 2016-12-26 2016-12-26 一种传话家用服务机器人 Expired - Fee Related CN106695825B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611213947.6A CN106695825B (zh) 2016-12-26 2016-12-26 一种传话家用服务机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611213947.6A CN106695825B (zh) 2016-12-26 2016-12-26 一种传话家用服务机器人

Publications (2)

Publication Number Publication Date
CN106695825A true CN106695825A (zh) 2017-05-24
CN106695825B CN106695825B (zh) 2019-04-23

Family

ID=58896025

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611213947.6A Expired - Fee Related CN106695825B (zh) 2016-12-26 2016-12-26 一种传话家用服务机器人

Country Status (1)

Country Link
CN (1) CN106695825B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102939791A (zh) * 2010-05-17 2013-02-20 塔塔咨询服务有限公司 用于具有听觉、言语和视觉障碍的人的手持式通信辅助器
US20150190927A1 (en) * 2012-12-21 2015-07-09 Crosswing Inc. Customizable robotic system
CN205085984U (zh) * 2015-09-23 2016-03-16 深圳市科讯鸿电子有限公司 一种家用护理智能机器人
CN205394558U (zh) * 2015-12-23 2016-07-27 无锡吾芯互联科技有限公司 家用助老智能机器人
CN205812243U (zh) * 2016-07-11 2016-12-14 天津艾思科尔科技有限公司 一种可应答来访的家用服务装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102939791A (zh) * 2010-05-17 2013-02-20 塔塔咨询服务有限公司 用于具有听觉、言语和视觉障碍的人的手持式通信辅助器
US20150190927A1 (en) * 2012-12-21 2015-07-09 Crosswing Inc. Customizable robotic system
CN205085984U (zh) * 2015-09-23 2016-03-16 深圳市科讯鸿电子有限公司 一种家用护理智能机器人
CN205394558U (zh) * 2015-12-23 2016-07-27 无锡吾芯互联科技有限公司 家用助老智能机器人
CN205812243U (zh) * 2016-07-11 2016-12-14 天津艾思科尔科技有限公司 一种可应答来访的家用服务装置

Also Published As

Publication number Publication date
CN106695825B (zh) 2019-04-23

Similar Documents

Publication Publication Date Title
US9724824B1 (en) Sensor use and analysis for dynamic update of interaction in a social robot
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
CN107203953B (zh) 一种基于互联网、表情识别和语音识别的教学系统及其实现方法
CN108000526B (zh) 用于智能机器人的对话交互方法及系统
CN110609620B (zh) 基于虚拟形象的人机交互方法、装置及电子设备
Petridis et al. End-to-end audiovisual fusion with LSTMs
Bousmalis et al. Spotting agreement and disagreement: A survey of nonverbal audiovisual cues and tools
CN110299152A (zh) 人机对话的输出控制方法、装置、电子设备及存储介质
CN112651334B (zh) 机器人视频交互方法和系统
CN110598576A (zh) 一种手语交互方法、装置及计算机介质
Minotto et al. Multimodal multi-channel on-line speaker diarization using sensor fusion through SVM
KR20100001928A (ko) 감정인식에 기반한 서비스 장치 및 방법
CN106503786B (zh) 用于智能机器人的多模态交互方法和装置
CN113067953A (zh) 客户服务方法、系统、装置、服务器及存储介质
WO2023226913A1 (zh) 基于表情识别的虚拟人物驱动方法、装置及设备
WO2023226914A1 (zh) 基于多模态数据的虚拟人物驱动方法、系统及设备
Weber et al. Real-time adaptation of a robotic joke teller based on human social signals
JP2023027060A (ja) ロボット、ロボットの制御方法及びプログラム
JP2016036883A (ja) ロボット制御装置、ロボット制御方法及びロボット制御プログラム
Krogsager et al. Backchannel head nods in danish first meeting encounters with a humanoid robot: The role of physical embodiment
KR101985793B1 (ko) 자율 행동 로봇을 이용하여 대화 서비스를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN110910898A (zh) 一种语音信息处理的方法和装置
CN113157174B (zh) 数据处理方法、装置、电子设备及计算机存储介质
US20210166685A1 (en) Speech processing apparatus and speech processing method
WO2023006033A1 (zh) 语音交互方法、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190318

Address after: No. 100 Zhifu Road, Jianghua Town, Taixing City, Jiangsu Province

Applicant after: Ge Wendan

Address before: 225400 No. 100 Zhifu Road, Jianghua Town, Taixing City, Jiangsu Province

Applicant before: Gao Xia

GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190423

Termination date: 20201226