CN106873893B - 用于智能机器人的多模态交互方法及装置 - Google Patents

用于智能机器人的多模态交互方法及装置 Download PDF

Info

Publication number
CN106873893B
CN106873893B CN201710075828.7A CN201710075828A CN106873893B CN 106873893 B CN106873893 B CN 106873893B CN 201710075828 A CN201710075828 A CN 201710075828A CN 106873893 B CN106873893 B CN 106873893B
Authority
CN
China
Prior art keywords
user
image
display data
simplified
stroke
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710075828.7A
Other languages
English (en)
Other versions
CN106873893A (zh
Inventor
袁洋
陆羽皓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Guangnian Wuxian Technology Co Ltd
Original Assignee
Beijing Guangnian Wuxian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Guangnian Wuxian Technology Co Ltd filed Critical Beijing Guangnian Wuxian Technology Co Ltd
Priority to CN201710075828.7A priority Critical patent/CN106873893B/zh
Publication of CN106873893A publication Critical patent/CN106873893A/zh
Application granted granted Critical
Publication of CN106873893B publication Critical patent/CN106873893B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/30Writer recognition; Reading and verifying signatures
    • G06V40/33Writer recognition; Reading and verifying signatures based only on signature image, e.g. static signature recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种用于智能机器人的多模态交互方法及装置。所述智能机器人安装有机器人操作系统,该方法包括:获取用户输入的简笔画图像;通过使用特定的神经网络识别所述简笔画图像所表征的物体信息,所述特定的神经网络是预先通过对边缘化的图像进行训练得到的;基于所述物体信息生成多模态数据并向用户输出。本发明提出了一种“你画我猜”的新型交互模式,增强了智能机器人的多模态交互能力,提高了智能机器人的功能的多样性,改善了用户体验。

Description

用于智能机器人的多模态交互方法及装置
技术领域
本发明涉及智能机器人领域,尤其涉及一种用于智能机器人的多模态交互方法及装置。
背景技术
随着科学技术的不断发展,信息技术、计算机技术以及人工智能技术的引入,机器人的研究已经逐步走出工业领域,逐渐扩展到了医疗、保健、家庭、娱乐以及服务行业等领域。而人们对于机器人的要求也从简单重复的机械动作提升为具有拟人问答、自主性及与其他机器人进行交互的智能机器人,人机交互也就成为决定智能机器人发展的重要因素。因此,提升智能机器人的交互能力,改善机器人的类人性和智能性,是现在亟需解决的重要问题。
发明内容
本发明所要解决的技术问题之一是需要提供一种提升智能机器人的交互能力,改善机器人的类人性和智能性的解决方案。
为了解决上述技术问题,本申请的实施例首先提供了一种用于智能机器人的多模态交互方法,所述智能机器人安装有机器人操作系统,该方法包括:获取用户输入的简笔画图像;通过使用特定的神经网络识别所述简笔画图像所表征的物体信息,所述特定的神经网络是预先通过对边缘化的图像进行训练得到的;基于所述物体信息生成多模态数据并向用户输出。
优选地,通过使所述特定的神经网络的第一层网络使用相对于输入的简笔画图像大小的大比例的卷积核大小,以捕捉简笔画图像的细节识别出所述简笔画图像所表征的物体。
优选地,该方法还包括:在向用户输出多模态数据后,接收用户的反馈信息,当接收到用户的反馈信息为识别正确的信息时,结束识别,否则重新获取用户输入的包含更多信息的简笔画图像继续识别简笔画图像所表征的物体信息。
优选地,该方法还包括:向用户输出简笔画显示数据;在简笔画显示数据输出的过程中,接收并解析用户针对已输出内容所反馈的信息以获取用户反馈信息中的物体信息;判断所述物体信息与所述简笔画显示数据是否对应,若不对应,则输出完整的简笔画显示数据及其对应的物体信息。
优选地,所述简笔画显示数据是基于设定物体来生成的或者从数据库中获取得到。
优选地,该方法还包括:识别用户身份,根据用户之前画过的简笔画历史记录,输出用户未画过的简笔画显示数据。
优选地,该方法还包括:若用户识别简笔画的准确度大于设定阈值,则将该用户的简笔画保存到数据库中。
根据本发明的另一方面,还提供了一种用于智能机器人的多模态交互装置,所述智能机器人安装有机器人操作系统,该装置包括:简笔画图像输入模块,其获取用户输入的简笔画图像;物体识别模块,其通过使用特定的神经网络识别所述简笔画图像所表征的物体信息,所述特定的神经网络是预先通过对边缘化的图像进行训练得到的;多模态数据输出模块,其基于所述物体信息生成多模态数据并向用户输出。
优选地,所述物体识别模块,其进一步通过使所述特定的神经网络的第一层网络使用相对于输入的简笔画图像大小的大比例的卷积核大小,以捕捉简笔画图像的细节识别出所述简笔画图像所表征的物体。
优选地,该装置还包括:反馈信息接收模块,其在向用户输出多模态数据后,接收用户的反馈信息,当接收到用户的反馈信息为识别正确的信息时,结束识别,否则重新获取用户输入的包含更多信息的简笔画图像继续识别简笔画图像所表征的物体信息。
优选地,该装置还包括:简笔画显示数据输出模块,其向用户输出简笔画显示数据;反馈信息解析模块,其在简笔画显示数据输出的过程中,接收并解析用户针对已输出内容所反馈的信息以获取用户反馈信息中的物体信息;物体信息判断模块,其判断所述物体信息与所述简笔画显示数据是否对应,若不对应,则输出完整的简笔画显示数据及其对应的物体信息。
优选地,所述简笔画显示数据输出模块,其进一步基于设定物体来生成或者从数据库中获取得到所述简笔画显示数据。
优选地,该装置还包括用户身份识别模块,其识别用户身份;所述简笔画显示数据输出模块,其进一步根据用户之前画过的简笔画历史记录,输出用户未画过的简笔画显示数据。
优选地,该装置还包括:数据存储模块,其在用户识别简笔画的准确度大于设定阈值时,将该用户的简笔画保存到数据库中。
与现有技术相比,上述方案中的一个或多个实施例可以具有如下优点或有益效果:
根据本发明实施例,提供了一种新型的人机交互方法,该方法获取用户输入的简笔画图像,通过使用特定的神经网络识别所述简笔画图像所表征的物体信息,基于所述物体信息生成多模态数据并向用户输出,从而完成“你画我猜”的新型交互模式。本发明实施例能增强智能机器人的多模态交互能力,提高了智能机器人的功能的多样性,改善了用户体验。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明的技术方案而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构和/或流程来实现和获得。
附图说明
附图用来提供对本申请的技术方案或现有技术的进一步理解,并且构成说明书的一部分。其中,表达本申请实施例的附图与本申请的实施例一起用于解释本申请的技术方案,但并不构成对本申请技术方案的限制。
图1为根据本发明第一实施例的用于智能机器人的多模态交互方法的流程示意图。
图2为根据本发明第二实施例的用于智能机器人的多模态交互方法的流程示意图。
图3为根据本发明第三实施例的用于智能机器人的多模态交互方法的流程示意图。
图4为根据本发明第四实施例的用于智能机器人的多模态交互装置300的结构框图。
图5为根据本发明第五实施例的用于智能机器人的多模态交互装置400的结构框图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此对本发明如何应用技术手段来解决技术问题,并达成相应技术效果的实现过程能充分理解并据以实施。本申请实施例以及实施例中的各个特征,在不相冲突前提下可以相互结合,所形成的技术方案均在本发明的保护范围之内。
另外,附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在现有的智能机器人领域中,大多数机器人能够与用户进行单独的语音交互,完成用户赋予的任务或者与用户进行简单的问答行为。但是,现有的这种人机交互模式较为单调,机器人的智能性较差,只能进行语音交互,大大降低了用户使用智能机器人的兴趣。本发明实施例提出了一种新型的人机交互模式,即“你(用户)画我(机器人)猜”和“我(机器人)画你(用户)猜”的交互方式。在机器人与用户进行“你画我猜”的多模态交互时,机器人可以通过使用特定的神经网络对用户(一般为儿童)绘制的简笔画图像进行物体识别,并将识别结果告知用户。如此,不仅提高了机器人的智能性,使机器人具备多种交互模式的功能,还可以增强用户与机器人的粘度。
在本发明实施例中,用户绘制的简笔画图像从简笔画的表达方式来讲,最为明显的特点是它的造型手段,采用概括的线条画出形象的形态结构。在实际应用过程中,由于儿童绘制的图画与真实的物体具有很大的区别,比如,图画往往是单色的,并且具有高度的抽象和失真等情况,因此,预先通过对边缘化的图像进行训练得到特定的神经网络。在进行“你画我猜”的交互时,利用该神经网络来识别简笔画图像所代表的物体。具体地,为了识别简笔画,在该特定的神经网络的第一层使用相对于输入图像大小来说比较大的比例的卷积核大小来充分捕捉简笔画的细节,在前端使用更多的层,使网络重点集中在图像的细节部分,提高简笔画识别的准确度。
在向用户输出识别结果后,接收用户反馈的有关机器人识别结果正确与否的信息。通过用户的判断可以完成对用户输入的简笔画进行分类,在用户指示机器人猜对的时候,即识别结果就是该简笔画图像的类别。那么就可以将该简笔画图像加入到训练集中,提升该特定的神经网络的性能,机器人的识别能力也就能随之提高。在识别结果为错误时,则机器人重新获取包括更多细节的简笔画图像继续来识别该图像代表的物体。
另一方面,在进行“我画你猜”的交互模式时,重点在于机器人来引导用户去猜测他们不经常绘制的简笔画图像,开拓用户的知识范围。向用户输出的简笔画显示数据可以基于设定物体来生成也可以从数据库中得到。当然,为了实现拓宽用户的知识范围的目的,在输出简笔画之前,可以先识别用户的身份,根据用户的简笔画历史记录来输出简笔画。
对于那些比较快且准确猜出机器人输出的简笔画的用户,可以认为他们具备较强的抽象能力,那么他们的简笔画可能会具有较强的稳定性,基于此,可以将该用户之前绘制的简笔画保存到数据库中,进一步训练特定的神经网络,提高针对简笔画的物体识别准确度。
第一实施例
图1为涉及本发明的用于智能机器人的多模态交互方法的示例一的流程示意图,该智能机器人优选为安装有机器人操作系统的机器人,然而,其他具有语音、表情、动作等表达能力的、不使用所述机器人操作系统的智能机器人(或设备)也可以实现本实施例。下面参考图1来说明该方法,即“你画我猜”人机交互模式所涉及的各个步骤。
在步骤S110中,获取用户输入的简笔画图像。
在一个例子中,机器人可以通过使用图像传感器,例如扫描仪、摄像机、照相机等扫描或拍摄绘制在纸上的简笔画图像的方式来获取用户绘制的简笔画图像。在其他例子中,也可以在机器人处配置一个具备画图板功能的触控屏,通过该触控屏来接收用户使用触控笔或手指绘制的简笔画图像。在获取简笔画图像之后,将获取的图像转换成适合处理的形式,即将物理量编程一组测量值。
容易理解,在通过图像输入设备来获取简笔画时,由于采集到的图像除了简笔画内容以外,还包括其他不需要的信息,因此需要对采集到的图像进行预处理。由于在后面图像识别时,输入的图像一般需要进行归一化,可以采用不同的激活函数对预处理后的图像进行处理。需要说明的是,本步骤中获取的简笔画图像可以是未绘制完整的图像,例如,可以是仅绘制完图画一半内容的简笔画图像。
在步骤S120中,通过使用特定的神经网络识别简笔画图像所表征的物体信息,特定的神经网络是预先通过对边缘化的图像进行训练得到的。
相对于现有的图像识别来说,在选取训练样本时,一方面考虑到本例的输入信息为简笔画图像,简笔画图像具备更加抽象、信息量更少,并且可能有强烈的变形的特点,而且,目前可以进行训练的简笔画样本数量较少。另一方面,图像的边缘是图像最基本的特征之一,边缘中包含图像物体有价值的边界信息,这些信息给出了图像的轮廓,而简笔画也是以轮廓线的方式来描述物体的,因此使用边缘化后的图像作为训练神经网络的训练样本集合更为合适。并且,通过边缘化可以降低后续图像处理和分析的数据量。
在确定特定的神经网络时,通过对一定数量的原始图像进行边缘化处理,用处理后的图像作为训练样本来预先训练网络,并固定前几层网络,否则仅仅使用简笔画训练容易过拟合导致效果变差。
为了识别简笔画,本实施例在进行神经网络结构设计过程中,在第一层网络使用相对于输入的简笔画图像大小的大比例的卷积核大小,以捕捉简笔画图像的细节识别出简笔画图像所表征的物体。在前端使用更多的层,使网络重点集中在图像的细节部分,且该神经网络优选使用全卷积的结构,并控制参数。在将归一化后的图像数据输入至该特定神经网络模型后,该模型会输出一个多维向量来表示输入图像属于每一类的概率。
在步骤S130中,基于物体信息生成多模态数据并向用户输出。
在得到有关输入的简笔画图像的种类概率信息后,基于概率值最高的物体信息生成多模态数据,例如将物体信息转换成对应的语音数据、图像数据等,向用户输出。为此,完成了“你画我猜”的交互模式。
第二实施例
图2为涉及本发明的用于智能机器人的多模态交互方法的示例二的流程示意图,该实施例的方法主要包括以下步骤,其中,将与第一实施例相似的步骤以相同的标号标注,且不再赘述其具体内容,仅对区别步骤进行具体描述。
在步骤S110中,获取用户输入的简笔画图像。
在步骤S120中,通过使用特定的神经网络识别所述简笔画图像所表征的物体信息,特定的神经网络是预先通过对边缘化的图像进行训练得到的。
在步骤S130中,基于物体信息生成多模态数据并向用户输出。
在步骤S140中,在向用户输出多模态数据后,判断是否接收到用户的反馈信息,在接收到用户的反馈信息时,则进一步执行步骤S150,否则结束识别。
在向用户输出物体识别结果信息后,监控来自用户的多模态输入信息,对监控到的多模态输入信息进行解析,判断解析的内容是否为用户响应物体识别结果而发出的,主要是判断多模态输入信息中是否包括判断性的语句或姿态,例如“是xx”或“不是”等用语,“点头”或“摇头”等姿态。在解析结果中包含类似上述判断性用用语或姿态的情况下,则执行步骤S150。
在步骤S150中,判断反馈信息是否为识别正确的信息,若是识别正确的信息,则结束识别,否则返回步骤S110重新获取用户输入的包含更多信息的简笔画图像继续识别简笔画图像所表征的物体信息。
在反馈信息为表示机器人识别正确的信息时,则结束识别;若反馈信息为表示机器人识别错误的信息时,则返回步骤S110,获取包含更多简笔画信息的图像,然后重复步骤S120~S150,直到机器人识别正确。
当然,若机器人对完整的简笔画图像进行识别后,输出给用户的识别结果仍为错误时,则结束识别。接收用户关于该简笔画图像的物体信息,也可以将该简笔画图像进行存储作为训练该特定神经网络的训练数据。
第三实施例
图3为涉及本发明的用于智能机器人的多模态交互方法的示例三的流程示意图,该实施例的方法除了执行第一实施例或第二实施例的各个步骤以外,还要执行如下步骤。请注意,为了方便版图绘制,图3省略了第一实施例和第二实施例的相关流程,仅绘制了与第一实施例和第二实施例不同的流程。
在本实施例中,还包括如下进行“我画你猜”交互模式的各个步骤。
在步骤S210中,向用户输出简笔画显示数据,该简笔画显示数据可以是基于设定物体来生成的或者从数据库中获取得到的。
在基于设定物体来生成简笔画显示数据时,可以先根据设定物体通过网络链接方式获取对应的原始图像数据,将该原始图像转化成灰度图像,然后将灰度图像进行平滑、锐化图像增强处理,在后对经处理后的图像进行边缘检测、边缘细化、边界跟踪等图像特征提取,从而完成图像的简笔画风格。
另外,在确定要输出的简笔画显示数据时,在一个优选实施例中,可以先识别用户身份,然后根据用户之前画过的简笔画历史记录,逐渐输出用户未画过的简笔画显示数据。在识别用户身份的过程中,可以通过捕获用户面部特征图像来进行用户身份的识别,并获取预先存储的该用户的简笔画历史记录。然后将向用户输出未画过的简笔画图像。通过根据不同的用户选择输出不同的简笔画显示数据,能够提高用户与机器人交互的趣味性,拓展用户的知识范围。
需要说明的是,在向用户输出简笔画的过程中,并不是将简笔画的完整状态瞬间输出给用户,而是让图像从无到有逐步显示完整。具体可以采用现有的图像逐步显示技术,此处不再赘述。
在步骤S220中,在简笔画显示数据输出的过程中,接收并解析用户针对已输出内容所反馈的信息以获取用户反馈信息中的物体信息。
在简笔画显示数据输出的过程中,同步监控用户发出的多模态信息,主要是语音信息和文本信息。在获取为语音信息时,则通过语音识别技术获取用户多模态信息中的物体信息。
在步骤S230中,判断物体信息与简笔画显示数据是否对应,若不对应,则执行步骤S240,否则执行步骤S250。
由于每个简笔画显示数据都预先对应不同的物体信息,将获取的用户多模态信息中的物体信息与之进行比对,若对应,则判定用户识别正确,否则判定用户识别错误。
在步骤S240中,输出完整的简笔画显示数据及其对应的物体信息。
在步骤S250中,结束输出,或者,输出完整的简笔画显示数据。
需要说明的是,如果在“我画你猜”的交互过程中,用户猜对图像中的物体的准确度达到一定值,则认为用户具有比较强的抽象能力,他们的简笔画可能具有更好的稳定性,因此可以考虑将用户绘制的简笔画添加到系统的数据库中,即若用户识别简笔画的准确度大于设定阈值,则将该用户的简笔画保存到数据库中。其中,该设定阈值可以根据实际需要进行设定,此处不做限定。
第四实施例
图4为本发明实施例的用于智能机器人的多模态交互装置300的结构框图。如图4所示,本申请实施例的装置300主要包括:简笔画图像输入模块310、物体识别模块320、多模态数据输出模块330以及反馈信息接收模块340。
简笔画图像输入模块310,其获取用户输入的简笔画图像。
物体识别模块320,其通过使用特定的神经网络识别所述简笔画图像所表的物体信息,所述特定的神经网络是预先通过对边缘化的图像进行训练得到的。物体识别模块320,其进一步通过使所述特定的神经网络的第一层网络使用相对于输入的简笔画图像大小的大比例的卷积核大小,以捕捉简笔画图像的细节识别出所述简笔画图像所表征的物体。
多模态数据输出模块330,其基于所述物体信息生成多模态数据并向用户输出。
反馈信息接收模块340,其在向用户输出多模态数据后,接收用户的反馈信息,当接收到用户的反馈信息为识别正确的信息时,结束识别,否则重新获取用户输入的包含更多信息的简笔画图像继续识别简笔画图像所表征的物体信息。
通过合理设置,本实施例的装置300可以执行第一实施例和第二实施例的各个步骤,此处不再赘述。
第五实施例
图5为本发明实施例的用于智能机器人的多模态交互装置400的结构框图。如图5所示,本申请实施例的装置400除了包括图4所示的各个模块以外,还包括:简笔画显示数据输出模块410、反馈信息解析模块420、物体信息判断模块430、用户身份识别模块440以及数据存储模块450。
简笔画显示数据输出模块410,其向用户输出简笔画显示数据。简笔画显示数据输出模块410,其进一步基于设定物体来生成或者从数据库中获取得到所述简笔画显示数据。简笔画显示数据输出模块410,其进一步根据用户之前画过的简笔画历史记录,输出用户未画过的简笔画显示数据。
反馈信息解析模块420,其在简笔画显示数据输出的过程中,接收并解析用户针对已输出内容所反馈的信息以获取用户反馈信息中的物体信息。
物体信息判断模块430,其判断所述物体信息与所述简笔画显示数据是否对应,若不对应,则输出完整的简笔画显示数据及其对应的物体信息。
用户身份识别模块440,其识别用户身份。
数据存储模块450,其在用户识别简笔画的准确度大于设定阈值时,将该用户的简笔画保存到数据库中。
通过合理设置,本实施例的装置400可以执行第三实施例的各个步骤,此处不再赘述。
由于本发明的方法描述的是在计算机系统中实现的。该计算机系统例如可以设置在机器人的控制核心处理器中。例如,本文所述的方法可以实现为能以控制逻辑来执行的软件,其由机器人操作系统中的CPU来执行。本文所述的功能可以实现为存储在非暂时性有形计算机可读介质中的程序指令集合。当以这种方式实现时,该计算机程序包括一组指令,当该组指令由计算机运行时其促使计算机执行能实施上述功能的方法。可编程逻辑可以暂时或永久地安装在非暂时性有形计算机可读介质中,例如只读存储器芯片、计算机存储器、磁盘或其他存储介质。除了以软件来实现之外,本文所述的逻辑可利用分立部件、集成电路、与可编程逻辑设备(诸如,现场可编程门阵列(FPGA)或微处理器)结合使用的可编程逻辑,或者包括它们任意组合的任何其他设备来体现。所有此类实施例旨在落入本发明的范围之内。
应该理解的是,本发明所公开的实施例不限于这里所公开的特定结构、处理步骤或材料,而应当延伸到相关领域的普通技术人员所理解的这些特征的等同替代。还应当理解的是,在此使用的术语仅用于描述特定实施例的目的,而并不意味着限制。
说明书中提到的“一个实施例”或“实施例”意指结合实施例描述的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,说明书通篇各个地方出现的短语“一个实施例”或“实施例”并不一定均指同一个实施例。
虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。任何本发明所属技术领域内的技术人员,在不脱离本发明所公开的精神和范围的前提下,可以在实施的形式上及细节上作任何的修改与变化,但本发明的专利保护范围,仍须以所附的权利要求书所界定的范围为准。

Claims (6)

1.一种用于智能机器人的多模态交互方法,所述智能机器人安装有机器人操作系统,该方法包括:
获取用户输入的简笔画图像,将获取的所述简笔画图像转换成适合处理的形式,即将物理量编程一组测量值,所述简笔画图像包含未绘制完整的图像;
通过使用特定的神经网络识别所述简笔画图像所表征的物体信息,所述特定的神经网络是预先通过对边缘化的图像进行训练得到的,在所述特定的神经网络前端将重点集中在所述简笔画图像的细节部分,使用全卷积结构的神经网络,并控制参数,在将归一化后的所述简笔画图像输入至所述特定的神经网络后,会输出一个多维向量来表示输入图像属于每一类的概率;
基于所述物体信息生成多模态数据并向用户输出,
其中,还包括:
向用户输出简笔画显示数据,所述简笔画显示数据是基于设定物体来生成的或者从数据库中获取得到,将原始图像数据转化成灰度图像,然后进行平滑、锐化图像增强处理,在后经处理后的图像进行边缘检测、边缘细化、边缘跟踪的图像特征提取,得到所述简笔画显示数据,其中,在向用户输出简笔画显示数据的过程中,将所述简笔画显示数据从无到有逐步显示完整;
在简笔画显示数据输出的过程中,接收并解析用户针对已输出内容所反馈的信息以获取用户反馈信息中的物体信息;
判断所述物体信息与所述简笔画显示数据是否对应,若不对应,则输出完整的简笔画显示数据及其对应的物体信息,
其中,识别用户身份,根据用户之前画过的简笔画历史记录,输出用户未画过的简笔画显示数据,
若用户识别简笔画的准确度大于设定阈值,则将该用户的简笔画保存到数据库中。
2.根据权利要求1所述的多模态交互方法,其特征在于,
通过使所述特定的神经网络的第一层网络使用相对于输入的简笔画图像大小的大比例的卷积核大小,以捕捉简笔画图像的细节识别出所述简笔画图像所表征的物体。
3.根据权利要求1所述的多模态交互方法,其特征在于,该方法还包括:
在向用户输出多模态数据后,接收用户的反馈信息,当接收到用户的反馈信息为识别正确的信息时,结束识别,否则重新获取用户输入的包含更多信息的简笔画图像继续识别简笔画图像所表征的物体信息。
4.一种用于智能机器人的多模态交互装置,所述智能机器人安装有机器人操作系统,该装置包括:
简笔画图像输入模块,其获取用户输入的简笔画图像,将获取的所述简笔画图像转换成适合处理的形式,即将物理量编程一组测量值,所述简笔画图像包含未绘制完整的图像;
物体识别模块,其通过使用特定的神经网络识别所述简笔画图像所表征的物体信息,所述特定的神经网络是预先通过对边缘化的图像进行训练得到的,在所述特定的神经网络前端将重点集中在所述简笔画图像的细节部分,使用全卷积结构的神经网络,并控制参数,在将归一化后的所述简笔画图像输入至所述特定的神经网络后,会输出一个多维向量来表示输入图像属于每一类的概率;
多模态数据输出模块,其基于所述物体信息生成多模态数据并向用户输出,
其中,还包括:
简笔画显示数据输出模块,其向用户输出简笔画显示数据,进一步基于设定物体来生成或者从数据库中获取得到所述简笔画显示数据,将原始图像数据转化成灰度图像,然后进行平滑、锐化图像增强处理,在后经处理后的图像进行边缘检测、边缘细化、边缘跟踪的图像特征提取,得到所述简笔画显示数据,其中,在向用户输出简笔画显示数据的过程中,将所述简笔画显示数据从无到有逐步显示完整;
反馈信息解析模块,其在简笔画显示数据输出的过程中,接收并解析用户针对已输出内容所反馈的信息以获取用户反馈信息中的物体信息;
物体信息判断模块,其判断所述物体信息与所述简笔画显示数据是否对应,若不对应,则输出完整的简笔画显示数据及其对应的物体信息,
其中,还包括用户身份识别模块,其识别用户身份;
所述简笔画显示数据输出模块,其进一步根据用户之前画过的简笔画历史记录,输出用户未画过的简笔画显示数据,
数据存储模块,其在用户识别简笔画的准确度大于设定阈值时,将该用户的简笔画保存到数据库中。
5.根据权利要求4所述的多模态交互装置,其特征在于,
所述物体识别模块,其进一步通过使所述特定的神经网络的第一层网络使用相对于输入的简笔画图像大小的大比例的卷积核大小,以捕捉简笔画图像的细节识别出所述简笔画图像所表征的物体。
6.根据权利要求4所述的多模态交互装置,其特征在于,该装置还包括:
反馈信息接收模块,其在向用户输出多模态数据后,接收用户的反馈信息,当接收到用户的反馈信息为识别正确的信息时,结束识别,否则重新获取用户输入的包含更多信息的简笔画图像继续识别简笔画图像所表征的物体信息。
CN201710075828.7A 2017-02-13 2017-02-13 用于智能机器人的多模态交互方法及装置 Active CN106873893B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710075828.7A CN106873893B (zh) 2017-02-13 2017-02-13 用于智能机器人的多模态交互方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710075828.7A CN106873893B (zh) 2017-02-13 2017-02-13 用于智能机器人的多模态交互方法及装置

Publications (2)

Publication Number Publication Date
CN106873893A CN106873893A (zh) 2017-06-20
CN106873893B true CN106873893B (zh) 2021-01-22

Family

ID=59166168

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710075828.7A Active CN106873893B (zh) 2017-02-13 2017-02-13 用于智能机器人的多模态交互方法及装置

Country Status (1)

Country Link
CN (1) CN106873893B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107454312A (zh) * 2017-06-14 2017-12-08 普联技术有限公司 自动拍照方法及装置
CN108257194B (zh) * 2018-01-23 2021-06-01 哈尔滨工程大学 基于卷积神经网络的人脸简笔画生成方法
CN111243050B (zh) * 2020-01-08 2024-02-27 杭州未名信科科技有限公司 肖像简笔画生成方法、系统及绘画机器人
CN111243051B (zh) * 2020-01-08 2023-08-18 杭州未名信科科技有限公司 基于肖像照片的简笔画生成方法、系统及存储介质
CN112601100A (zh) * 2020-12-11 2021-04-02 北京字跳网络技术有限公司 一种直播互动方法、装置、设备及介质
CN116330310B (zh) * 2023-02-14 2023-11-07 河南泽远网络科技有限公司 一种低延时机器人交互方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007071070A1 (en) * 2005-12-23 2007-06-28 Universite De Sherbrooke Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
CN105469116A (zh) * 2015-12-01 2016-04-06 深圳市图灵机器人有限公司 一种基于人机交互的幼儿识图及数据扩充方法
CN105913039A (zh) * 2016-04-26 2016-08-31 北京光年无限科技有限公司 基于视觉和语音的对话数据交互处理方法及装置
CN106022294A (zh) * 2016-06-01 2016-10-12 北京光年无限科技有限公司 一种面向智能机器人的人机交互方法及装置
CN106097793A (zh) * 2016-07-21 2016-11-09 北京光年无限科技有限公司 一种面向智能机器人的儿童教学方法和装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102999282B (zh) * 2011-09-08 2015-11-25 北京林业大学 基于实时笔画输入的数据对象逻辑控制系统及其方法
CN103544853A (zh) * 2013-10-31 2014-01-29 无敌科技(西安)有限公司 一种疯狂百科情景猜图的方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007071070A1 (en) * 2005-12-23 2007-06-28 Universite De Sherbrooke Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
CN105469116A (zh) * 2015-12-01 2016-04-06 深圳市图灵机器人有限公司 一种基于人机交互的幼儿识图及数据扩充方法
CN105913039A (zh) * 2016-04-26 2016-08-31 北京光年无限科技有限公司 基于视觉和语音的对话数据交互处理方法及装置
CN106022294A (zh) * 2016-06-01 2016-10-12 北京光年无限科技有限公司 一种面向智能机器人的人机交互方法及装置
CN106097793A (zh) * 2016-07-21 2016-11-09 北京光年无限科技有限公司 一种面向智能机器人的儿童教学方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Enabling My Robot To Play Pictionary : Recurrent Neural Networks For Sketch Recognition;Ravi Kiran Sarvadevabhatla等;《The 24th ACM international conference on Multimedia》;20161019;第247-251页 *

Also Published As

Publication number Publication date
CN106873893A (zh) 2017-06-20

Similar Documents

Publication Publication Date Title
CN106873893B (zh) 用于智能机器人的多模态交互方法及装置
CN109409222B (zh) 一种基于移动端的多视角人脸表情识别方法
CN105913039B (zh) 基于视觉和语音的对话数据交互处理方法及装置
Adithya et al. A deep convolutional neural network approach for static hand gesture recognition
Muhammad et al. Learning deep sketch abstraction
CN111931701B (zh) 基于人工智能的姿态识别方法、装置、终端和存储介质
CN109471945B (zh) 基于深度学习的医疗文本分类方法、装置及存储介质
Zheng et al. Recent advances of deep learning for sign language recognition
CN110990543A (zh) 智能对话的生成方法、装置、计算机设备及计算机存储介质
CN110109541B (zh) 一种多模态交互的方法
CN106648078B (zh) 应用于智能机器人的多模态交互方法及系统
KR101887637B1 (ko) 로봇 시스템
CN106502382B (zh) 用于智能机器人的主动交互方法和系统
WO2021047587A1 (zh) 手势识别方法、电子设备、计算机可读存储介质和芯片
CN107016046A (zh) 基于视觉场景化的智能机器人对话方法及系统
CN112198966B (zh) 基于fmcw雷达系统的笔画识别方法以及系统
WO2022021948A1 (zh) 动作识别方法、装置、计算机设备及存储介质
CN111428666A (zh) 基于快速人脸检测的智能家庭陪伴机器人系统及方法
CN115223239A (zh) 一种手势识别方法、系统、计算机设备以及可读存储介质
CN111383138A (zh) 餐饮数据处理方法、装置、计算机设备和存储介质
CN112949689A (zh) 图像识别方法、装置、电子设备及存储介质
CN111722717B (zh) 手势识别方法、装置及计算机可读存储介质
Rawf et al. Effective Kurdish sign language detection and classification using convolutional neural networks
CN108628454B (zh) 基于虚拟人的视觉交互方法及系统
CN111160173A (zh) 一种基于机器人的手势识别方法及机器人

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant