CN107832720A - 基于人工智能的信息处理方法和装置 - Google Patents

基于人工智能的信息处理方法和装置 Download PDF

Info

Publication number
CN107832720A
CN107832720A CN201711138240.8A CN201711138240A CN107832720A CN 107832720 A CN107832720 A CN 107832720A CN 201711138240 A CN201711138240 A CN 201711138240A CN 107832720 A CN107832720 A CN 107832720A
Authority
CN
China
Prior art keywords
information
user
face
face image
artificial intelligence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711138240.8A
Other languages
English (en)
Other versions
CN107832720B (zh
Inventor
纪友升
王文敏
徐威
周光富
叶路
凌光
周超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201711138240.8A priority Critical patent/CN107832720B/zh
Publication of CN107832720A publication Critical patent/CN107832720A/zh
Application granted granted Critical
Publication of CN107832720B publication Critical patent/CN107832720B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本申请实施例公开了基于人工智能的信息处理方法和装置。该方法用于服务器,该方法的一具体实施方式包括:服务器与终端设备通信连接,包括:接收终端设备发送的用户的输入信息,并接收终端设备发送的终端设备采集的用户的脸部图像;对脸部图像进行人脸识别,确定用户的用户信息,其中,用户信息包括属性信息;基于用户信息,确定输入信息的回复信息;将回复信息发送给终端设备。该方法使机器设备在信息处理中为用户提供了个性化的内容。

Description

基于人工智能的信息处理方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及基于人工智能的信息处理方法和装置。
背景技术
人工智能(Artificial Intelligence,简称AI)技术的快速发展为人们的日常工作和生活提供了便利。人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能越来越多地融入到应用中,结合人工智能的应用可以确定出机器在进行人机交互时对用户的回复信息。
随着人工智能的飞速发展,如何让机器能拥有和人类一样的智能,成了无数企业希望做到的事情。在这个背景下,我们希望机器能够在与用户进行人机交互时,给用户以更为准确的回复信息。
发明内容
本申请实施例提出了基于人工智能的信息处理方法和装置。
第一方面,本申请实施例提供了一种基于人工智能的信息处理方法,该方法用于服务器,服务器与终端设备通信连接,包括:接收终端设备发送的用户的输入信息,并接收终端设备发送的终端设备采集的用户的脸部图像;对脸部图像进行人脸识别,确定用户的用户信息,其中,用户信息包括属性信息;基于用户信息,确定输入信息的回复信息;将回复信息发送给终端设备。
在一些实施例中,属性信息包括以下至少一项:年龄、性别、表情和肤色。
在一些实施例中,对脸部图像进行人脸识别,确定用户的用户信息,包括:检测脸部图像所呈现的人脸,并对检测到的人脸进行特征点定位;根据所定位的特征点生成用户的属性信息。
在一些实施例中,在所述基于所述用户信息,确定所述输入信息的回复信息之前,该方法还包括:将所生成的属性信息添加到用户信息库中,其中,所述用户信息库中的属性信息在存储预设时长之后失效。
在一些实施例中,对脸部图像进行人脸识别,确定用户的用户信息,还包括:将脸部图像所呈现的人脸与预先获取的人脸图像集合中的人脸图像所呈现的人脸进行人脸对比;若确定在人脸图像集合中存在与脸部图像相匹配的人脸图像,获取相匹配的人脸图像所对应的用户的用户信息。
在一些实施例中,在基于用户信息,确定输入信息的回复信息之前,该方法还包括:将所生成的属性信息和所述相匹配的人脸图像所对应的用户的用户信息添加到用户信息库中,其中,用户信息库中的属性信息在存储预设时长之后失效。
在一些实施例中,输入信息包括语音信息;基于用户信息,确定输入信息的回复信息,包括:将语音信息转换为文本信息;对文本信息进行分析,得到用户的意图信息;在用户信息库中查找意图信息对应的信息;基于查找到的信息生成回复信息。
第二方面,本申请实施例提供了一种基于人工智能的信息处理装置,装置用于服务器,服务器与终端设备通信连接,包括:接收单元,配置用于接收终端设备发送的用户的输入信息,并接收终端设备发送的终端设备采集的用户的脸部图像;确定单元,配置用于对脸部图像进行人脸识别,确定用户的用户信息,其中,用户信息包括属性信息;信息确定单元,配置用于基于用户信息,确定输入信息的回复信息;发送单元,配置用于将回复信息发送给终端设备。
在一些实施例中,属性信息包括以下至少一项:年龄、性别、表情和肤色。
在一些实施例中,确定单元,包括:检测模块,配置用于检测脸部图像所呈现的人脸,并对检测到的人脸进行特征点定位;生成模块,配置用于根据所定位的特征点生成用户的属性信息。
在一些实施例中,该装置还包括:第一添加单元,配置用于将所生成的属性信息添加到用户信息库中,其中,用户信息库中的属性信息在存储预设时长之后失效。
在一些实施例中,确定单元,还包括:对比模块,配置用于将脸部图像所呈现的人脸与预先获取的人脸图像集合中的人脸图像所呈现的人脸进行人脸对比;获取模块,配置用于若确定在人脸图像集合中存在与脸部图像相匹配的人脸图像,获取相匹配的人脸图像所对应的用户的用户信息。
在一些实施例中,该装置还包括:第二添加单元,配置用于将所生成的属性信息和相匹配的人脸图像所对应的用户的用户信息添加到用户信息库中,其中,用户信息库中的属性信息在存储预设时长之后失效。
在一些实施例中,输入信息包括语音信息;信息确定单元,包括:转换模块,配置用于将语音信息转换为文本信息;分析模块,配置用于对文本信息进行分析,得到用户的意图信息;查找模块,配置用于在用户信息库中查找意图信息对应的信息;回复确定模块,配置用于基于查找到的信息生成回复信息。
第三方面,本申请实施例提供了一种服务器,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如基于人工智能的信息处理方法中任一实施例的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如基于人工智能的信息处理方法中任一实施例的方法。
本申请实施例提供的基于人工智能的信息处理方法和装置,首先接收终端设备发送的用户的输入信息,并接收终端设备发送的终端设备采集的用户的脸部图像。之后,对脸部图像进行人脸识别,确定用户的用户信息,其中,用户信息包括属性信息。然后,基于用户信息,确定输入信息的回复信息。而后,将回复信息发送给终端设备,从而基于人脸识别,赋予了智能机器设备视觉以及感知用户的能力,在人机交互中为用户提供了个性化的内容。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的基于人工智能的信息处理方法的一个实施例的流程图;
图3是根据本申请的基于人工智能的信息处理方法的一个应用场景的示意图;
图4是根据本申请的基于人工智能的信息处理方法的又一个实施例的流程图;
图5是根据本申请的基于人工智能的信息处理方法的又一个实施例的流程图;
图6是根据本申请的基于人工智能的信息处理装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的基于人工智能的信息处理方法或基于人工智能的信息处理装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种客户端应用。
终端设备101、102、103可以是具有信息收发功能并且支持图像采集的各种电子设备,包括但不限于智能机器人、智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上对用户输出的回复信息提供支持的后台服务器。后台服务器可以对接收到的用户的输入信息进行处理,并将处理结果(例如输入信息的回复信息)反馈给终端设备。
需要说明的是,本申请实施例所提供的基于人工智能的信息处理方法一般由服务器105执行,相应地,基于人工智能的信息处理装置一般设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的基于人工智能的信息处理方法的一个实施例的流程200。该基于人工智能的信息处理方法,包括以下步骤:
步骤201,接收终端设备发送的用户的输入信息,并接收终端设备发送的终端设备采集的用户的脸部图像。
在本实施例中,本实施例用于服务器,上述服务器与终端设备通信连接。上述服务器可以通过有线连接方式或者无线连接方式接收上述终端设备发送的用户的输入信息,并且接收上述终端设备发送的上述终端设备采集的该用户的脸部的图像。需要说明的是,以上两个接收操作的顺序可以是任意的。这里的用户为对上述终端设备进行输入而产生输入信息的用户。输入信息为上述终端设备接收到的用户输入的信息。输入信息可以是各种形式的信息,比如语音信息、图像信息、文本信息和视频信息中的至少一种。在上述终端设备上可以设置有摄像头,该摄像头能够对用户的脸部进行拍摄,以得到脸部图像。
上述的终端设备可以使用声源定位、话筒跟随和人脸检测中的至少一种技术确定上述用户的方位,从而根据方位对上述用户进行图像采集,得到上述脸部图像。这里的人脸检测可以是使用摄像头采集图像,确定图像中是否呈现有人脸。并根据呈现的人脸确定用户所在的方位。
步骤202,对脸部图像所呈现的人脸进行人脸识别,确定用户的用户信息。
在本实施例中,上述服务器在接收到脸部图像之后,对脸部图像所呈现的人脸进行人脸识别。之后,确定上述用户的用户信息。用户信息是与用户相关联的各种信息。用户信息包括属性信息。属性信息为反映用户的自身属性的信息。在这里,属性信息也可以包括用户自身的穿戴的信息。比如是否佩戴眼镜。
在本实施例的一些可选的实现方式中,属性信息包括以下至少一项:年龄、性别、表情和肤色。
比如,如果属性信息包括年龄,那么用户的属性信息可以是18岁。表情可以是高兴、愤怒等等。
此外,属性信息还可以包括人种、眼睛大小和长相数值等等。
可以通过多种方式确定用户信息。具体地,可以通过人脸检测,直接生成用户的属性信息,也即,由用户的面部特征可以直接得到属性信息。此外,还可以通过人脸识别确定上述用户是否为已经预存了用户信息的注册用户。如果是,则可以获取该注册用户的用户信息。在这里,注册用户为已经注册过的用户。注册用户的用户信息已经预先存储在本地或者其他电子设备上。
步骤203,基于用户信息,生成输入信息的回复信息。
在本实施例中,上述服务器在用户信息的基础上,生成上述输入信息的回复信息。回复信息指用以回复用户的输入信息的信息。在回复信息中可以包括用户信息,也可以不包括用户信息。具体地,可以预先建立由用户信息、输入信息生成回复信息的规则。利用该规则生成回复信息。在所确定的用户信息为至少两项的情况下,任一项用户信息的差别,都可以产生不同的回复信息。举例来说,输入信息为“我多大了”,用户信息为“性别女,年龄16,表情大笑”,可以生成回复信息“你非常年轻”。用户信息“性别女,年龄16,表情微笑”,可以生成回复信息“你16岁了”。
此外,也可以预先训练用以确定回复信息的模型。该模型可以是在基础分析模型的基础上训练得到的模型。可以利用包括用户信息、输入信息和回复信息的训练样本集进行训练。将样本集中的用户信息、输入信息作为输入,并且将回复信息作为输出进行训练。该模型可以是基于循环神经网络(Recurrent Neural Networks,RNN)、深度神经网络(DeepNeural Network,DNN)等现有的分析模型进行训练得到的。
步骤204,将回复信息发送给终端设备。
在本实施例中,上述服务器在确定回复信息之后,将确定的回复信息发送给上述终端设备,以便于上述终端设备向用户输出回复信息。
继续参见图3,图3是根据本实施例的基于人工智能的信息处理方法的应用场景的一个示意图。在图3的应用场景中,服务器301接收终端设备302发送的用户的输入信息“我多大了”303,并接收终端设备302发送的终端设备302采集的用户的脸部图像304;对脸部图像进行人脸识别,确定用户的用户信息“年龄12岁,性别女”305;基于用户信息“年龄12岁,性别女”305,确定输入信息“我多大了”的回复信息“你12岁了”306;将回复信息“你12岁了”306发送给终端设备302。
本申请的上述实施例提供的方法基于人脸识别,赋予了智能机器设备视觉以及感知用户的能力,在人机交互中为用户提供了个性化的内容。
进一步参考图4,其示出了基于人工智能的人机交互方法的又一个实施例的流程400。该基于人工智能的人机交互方法的流程400,包括以下步骤:
步骤401,接收终端设备发送的用户的输入信息,并接收终端设备发送的终端设备采集的用户的脸部图像。
在本实施例中,本实施例用于服务器,上述服务器与终端设备通信连接。上述服务器可以通过有线连接方式或者无线连接方式接收上述终端设备发送的用户的输入信息,并且接收上述终端设备发送的上述终端设备采集的该用户的脸部的图像。需要说明的是,以上两个接收操作的顺序可以是任意的。这里的用户为对上述终端设备进行输入而产生输入信息的用户。输入信息为上述终端设备接收到的用户输入的信息。输入信息可以是各种形式的信息,比如语音信息、图像信息、文本信息和视频信息中的至少一种。在上述终端设备上可以设置有摄像头,该摄像头能够对用户的脸部进行拍摄,以得到脸部图像。
步骤402,检测脸部图像所呈现的人脸,并对检测到的人脸进行特征点定位。
在本实施例中,上述服务器检测脸部图像所呈现的人脸。在检测到人脸后,对检测到的人脸进行特征点定位,也即,确定检测到的人脸的各个特征点所在的位置。特征点为人脸上可以体现面部的特点的位点。可以预先设定特征点,比如眼角、上嘴唇等等。
步骤403,根据所定位的特征点生成用户的属性信息。
在本实施例中,上述服务器根据定位到的特征点,生成上述用户的属性信息。具体地,如何利用特征点生成属性信息为本领域技术人员所公知的技术,在此不再赘述。
步骤404,将脸部图像所呈现的人脸与预先获取的人脸图像集合中的人脸图像所呈现的人脸进行人脸对比。
在本实施例中,在上述脸部图像呈现有人脸,并且在预先获取的人脸图像集合中的人脸图像中呈现有人脸。上述服务器可以将上述脸部图像所呈现的人脸与上述图像集合中各个图像所呈现的人脸进行人脸对比。对比可以指确定两个人脸的相同特征点之间的相似度。人脸图像集合为由人脸图像组成的集合。人脸图像集合中的每个人脸图像都是一个用户的人脸图像,所以,人脸图像与用户之间是相对应的。
步骤405,若确定在人脸图像集合中不存在与脸部图像相匹配的人脸图像,将所生成的属性信息添加到用户信息库中。
在本实施例中,上述服务器确定在人脸图像集合中是否存在与脸部图像相匹配的人脸图像。若确定在人脸图像集合中不存在与脸部图像相匹配的人脸图像,可以确定上述脸部图像对应的用户不是注册用户。之前上述服务器将所生成的属性信息添加到用户信息库中。用户信息库为存储有用户信息的数据库。用户信息库中的信息在存储预设时长之后失效。在这里,预设时长可以设置为1分钟、2分钟等较短的时长。用户信息库中的信息指用户信息库中所存储的任意信息。
预设时长从信息存储到用户信息库中开始计算。此外,属性信息也可以在从所述终端设备采集到所述脸部图像开始、经过预设时长之后失效。在该种情况下,从终端设备采集到脸部图像的时间开始计算预设时长。在这里,终端设备采集到脸部图像的时间可以从脸部图像的图像属性中获取。用户信息库中除了包括本次添加的属性信息,还可以包括在先添加的属性信息或者其他用户信息。
具体地,相匹配可以指图像所呈现的人脸之间的人脸相似度较高。较高的相似度可以是高于或等于预设的相似度阈值的相似度。比如,相似度阈值为99%。由此确定的集合中与脸部图像相匹配的人脸图像可能是一个,也可能是一个以上。此外,较高的相似度也可以指高于或等于预设的相似度阈值的相似度中最高的相似度。具体地,确定人脸之间的相似度可以对各个特征点的相似度取加权平均值,或者取平均值。
设置用户信息库中信息的失效时间可以进一步保证用户信息库中的信息的准确性。
在本实施例的一些可选的实现方式中,将上述匹配到的人脸图像所对应的用户的用户信息添加到用户信息库中。也即将上述属性信息和上述相匹配的人脸图像所对应用户的用户信息添加到用户信息库中。
在本实施例的一些可选的实现方式中,上述终端设备定时对用户进行图像采集。
本实施例通过定时(比如每5秒)采集能够保证属性信息的准确性和时效性。
步骤406,将语音信息转换为文本信息。
在本实施例中,输入信息包括语音信息。上述服务器对接收到的语音信息进行格式转换,得到文本信息。
步骤407,对文本信息进行分析,得到用户的意图信息。
在本实施例中,上述服务器对转换得到的文本信息进行分析,得到用户的意图信息。意图信息为体现用户意图的信息为用户的输入信息所体现的意图,可以由动词和名词组成。比如,意图信息可以是“猜年龄”、“打招呼”。
在实践中,可以预先设置使用文本信息进行查询的意图信息的词典。词典中的文本信息与意图信息之间存在对应关系。在得到文本信息之后,在词典中查找文本信息对应的意图信息,即可以得到用户的意图信息。此外,也可以预先训练意图识别模型,将得到的文本信息输入上述模型,得到模型输出的意图信息。上述意图识别模型用以表征文本信息和意图信息的对应关系。训练过程可以是获取包括文本信息和意图信息的样本集,将文本信息作为输入,意图信息作为输出对循环神经网络(Recurrent Neural Networks,RNN)、深度神经网络(Deep Neural Network,DNN)等现有的分析模型进行训练,得到意图识别模型。
步骤408,在用户信息库中查找意图信息对应的信息。
在本实施例中,上述服务器在上述用户信息库中,查找上述所得到的意图信息对应的信息。因为意图信息有所指示,所以,可以通过意图信息查找与其对应的用户信息。比如意图信息是“猜年龄”,那么对应的用户信息可以为“年龄,18岁”。
这里的用户信息库已经添加了所生成的属性信息,查找的操作是在此基础上进行的。
步骤409,基于查找到的信息生成回复信息。
在本实施例中,上述服务器基于查找到的信息,生成回复信息。回复信息可以是简单的查找到的用户信息的词汇,也可以是由该用户信息相关的语句。比如,用户信息为“年龄,18岁”,那么回复信息可以是“18岁”,也可以是“你18岁了”。
本实施例通过人脸识别生成属性信息,使机器设备在用户是陌生用户的情况下也能够根据生成的属性信息得到回复信息,与用户进行个性化交流。同时,通过人脸对比确定用户以获取到更加丰富的用户信息。
步骤410,将回复信息发送给终端设备。
在本实施例中,上述服务器在确定回复信息之后,将确定的回复信息发送给上述终端设备,以便于上述终端设备向用户输出回复信息。
进一步参考图5,其示出了基于人工智能的信息处理方法的又一个实施例的流程500。该基于人工智能的信息处理方法的流程500,包括以下步骤:
步骤501,接收终端设备发送的用户的输入信息,并接收终端设备发送的终端设备采集的用户的脸部图像。
在本实施例中,本实施例用于服务器,上述服务器与终端设备通信连接。上述服务器可以通过有线连接方式或者无线连接方式接收上述终端设备发送的用户的输入信息,并且接收上述终端设备发送的上述终端设备采集的该用户的脸部的图像。需要说明的是,以上两个接收操作的顺序可以是任意的。这里的用户为对上述终端设备进行输入而产生输入信息的用户。输入信息为上述终端设备接收到的用户输入的信息。输入信息可以是各种形式的信息,比如语音信息、图像信息、文本信息和视频信息中的至少一种。在上述终端设备上可以设置有摄像头,该摄像头能够对用户的脸部进行拍摄,以得到脸部图像。
步骤502,检测脸部图像所呈现的人脸,并对检测到的人脸进行特征点定位。
在本实施例中,上述服务器检测脸部图像所呈现的人脸。在检测到人脸后,对检测到的人脸进行特征点定位,也即,确定检测到的人脸的各个特征点所在的位置。特征点为人脸上可以体现面部的特点的位点。可以预先设定特征点,比如眼角、上嘴唇等等。
步骤503,根据所定位的特征点生成用户的属性信息。
在本实施例中,上述服务器根据定位到的特征点,生成上述用户的属性信息。具体地,如何利用特征点生成属性信息为本领域技术人员所公知的技术,在此不再赘述。
步骤504,将脸部图像所呈现的人脸与预先获取的人脸图像集合中的人脸图像所呈现的人脸进行人脸对比。
在本实施例中,在上述脸部图像呈现有人脸,并且在预先获取的人脸图像集合中的人脸图像中呈现有人脸。上述服务器可以将上述脸部图像所呈现的人脸与上述图像集合中各个图像所呈现的人脸进行人脸对比。对比可以指确定两个人脸的相同特征点之间的相似度。人脸图像集合为由人脸图像组成的集合。人脸图像集合中的每个人脸图像都是一个用户的人脸图像,所以,人脸图像与用户之间是相对应的。
步骤505,若确定在人脸图像集合中存在与脸部图像相匹配的人脸图像,获取相匹配的人脸图像所对应的用户的用户信息。
在本实施例中,上述服务器若确定在上述人脸图像集合中存在与脸部图像相匹配的人脸图像,则获取上述相匹配的人脸图像所对应的用户的用户信息。相匹配可以指图像所呈现的人脸之间的人脸相似度较高。较高的相似度可以是高于或等于预设的相似度阈值的相似度。比如,相似度阈值为99%。由此确定的集合中与脸部图像相匹配的人脸图像可能是一个,也可能是一个以上。此外,较高的相似度也可以指高于或等于预设的相似度阈值的相似度中最高的相似度。具体地,确定人脸之间的相似度可以对各个特征点的相似度取加权平均值,或者取平均值。
步骤506,将所生成的属性信息和相匹配的人脸图像所对应的用户的用户信息添加到用户信息库中。
在本实施例中,上述服务器将上述属性信息和上述相匹配的人脸图像所对应用户的用户信息添加到用户信息库中。用户信息库为存储有用户信息的数据库。用户信息库中的信息在存储预设时长之后失效。预设时长从信息存储到用户信息库中开始计算。用户信息库中除了包括本次添加的属性信息和相匹配的人脸图像所对应的用户的用户信息,还可以包括在先添加的属性信息或者其他用户信息。
设置用户信息库中信息的失效时间可以进一步保证用户信息库中的信息的准确性。
在本实施例的一些可选的实现方式中,上述终端设备定时对用户进行图像采集。
本实施例通过定时(比如每5秒)采集能够保证属性信息的准确性和时效性。
步骤507,将语音信息转换为文本信息。
在本实施例中,输入信息包括语音信息。上述服务器对接收到的语音信息进行格式转换,得到文本信息。
步骤508,对文本信息进行分析,得到用户的意图信息。
在本实施例中,上述服务器对转换得到的文本信息进行分析,得到用户的意图信息。意图信息为体现用户意图的信息为用户的输入信息所体现的意图,可以由动词和名词组成。比如,意图信息可以是“猜年龄”、“打招呼”。
在实践中,可以预先设置使用文本信息进行查询的意图信息的词典。词典中的文本信息与意图信息之间存在对应关系。在得到文本信息之后,在词典中查找文本信息对应的意图信息,即可以得到用户的意图信息。此外,也可以预先训练意图识别模型,将得到的文本信息输入上述模型,得到模型输出的意图信息。上述意图识别模型用以表征文本信息和意图信息的对应关系。训练过程可以是获取包括文本信息和意图信息的样本集,将文本信息作为输入,意图信息作为输出对循环神经网络(Recurrent Neural Networks,RNN)、深度神经网络(Deep Neural Network,DNN)等现有的分析模型进行训练,得到意图识别模型。
步骤509,在用户信息库中查找意图信息对应的信息。
在本实施例中,上述服务器在上述用户信息库中,查找上述所得到的意图信息对应的信息。因为意图信息有所指示,所以,可以通过意图信息查找与其对应的用户信息。比如意图信息是“猜年龄”,那么对应的用户信息可以为“年龄,18岁”。
这里的用户信息库已经添加了所生成的属性信息和相匹配的人脸图像所对应的用户的用户信息,查找的操作是在此基础上进行的。
步骤510,基于查找到的信息生成回复信息。
在本实施例中,上述服务器基于查找到的信息,生成回复信息。回复信息可以是简单的查找到的用户信息的词汇,也可以是由该用户信息相关的语句。比如,用户信息为“年龄,18岁”,那么回复信息可以是“18岁”,也可以是“你18岁了”。
本实施例通过人脸识别生成属性信息,使机器设备在用户是陌生用户的情况下也能够根据生成的属性信息得到回复信息,与用户进行个性化交流。同时,通过人脸对比确定用户以获取到更加丰富的用户信息。
步骤511,将回复信息发送给终端设备。
在本实施例中,上述服务器在确定回复信息之后,将确定的回复信息发送给上述终端设备,以便于上述终端设备向用户输出回复信息。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种基于人工智能的信息处理装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的基于人工智能的信息处理装置600包括:接收单元601、确定单元602、信息确定单元603和发送单元604。其中,接收单元601,配置用于接收终端设备发送的用户的输入信息,并接收终端设备发送的终端设备采集的用户的脸部图像;确定单元602,配置用于对脸部图像进行人脸识别,确定用户的用户信息,其中,用户信息包括属性信息;信息确定单元603,配置用于基于用户信息,确定输入信息的回复信息;发送单元604,配置用于将回复信息发送给终端设备。
在本实施例中,基于人工智能的信息处理装置600的接收单元601可以通过有线连接方式或者无线连接方式接收上述终端设备发送的用户的输入信息,并且接收上述终端设备发送的上述终端设备采集的该用户的脸部的图像。需要说明的是,以上两个接收操作的顺序可以是任意的。这里的用户为对上述终端设备进行输入而产生输入信息的用户。输入信息为上述终端设备接收到的用户输入的信息。输入信息可以是各种形式的信息,比如语音信息、图像信息、文本信息和视频信息中的至少一种。在上述终端设备上可以设置有摄像头,该摄像头能够对用户的脸部进行拍摄,以得到脸部图像。
在本实施例中,确定单元602在接收到脸部图像之后,对脸部图像所呈现的人脸进行人脸识别。之后,确定上述用户的用户信息。用户信息为与用户相关联的各种信息。用户信息包括属性信息。属性信息为反映用户的自身属性的信息。在这里,属性信息可以包括用户自身的穿戴的信息。比如是否佩戴眼镜。
在本实施例中,信息确定单元603在用户信息的基础上,生成上述输入信息的回复信息。回复信息指用以回复用户的输入信息的信息。在回复信息中可以包括用户信息,也可以不包括用户信息。具体地,可以预先建立由用户信息、输入信息生成回复信息的规则。利用该规则生成回复信息。在所确定的用户信息为至少两项的情况下,任一项用户信息的差别,都可以产生不同的回复信息。举例来说,输入信息为“我多大了”,用户信息为“性别女,年龄16,表情大笑”,可以生成回复信息“你非常年轻”。用户信息“性别女,年龄16,表情微笑”,可以生成回复信息“你16岁了”。此外,也可以预先训练用以确定回复信息的模型。该模型可以是在基础分析模型的基础上训练得到的模型。可以利用包括用户信息、输入信息和回复信息的训练样本集进行训练。将样本集中的用户信息、输入信息作为输入,并且将回复信息作为输出进行训练。该模型可以是基于循环神经网络(Recurrent Neural Networks,RNN)、深度神经网络(Deep Neural Network,DNN)等现有的分析模型进行训练得到的。
在本实施例中,发送单元604在确定回复信息之后,将确定的回复信息发送给上述终端设备,以便于上述终端设备向用户输出回复信息。
在本实施例的一些可选的实现方式中,属性信息包括以下至少一项:年龄、性别、表情和肤色。
在本实施例的一些可选的实现方式中,确定单元,包括:检测模块,配置用于检测脸部图像所呈现的人脸,并对检测到的人脸进行特征点定位;生成模块,配置用于根据所定位的特征点生成用户的属性信息。
在本实施例的一些可选的实现方式中,该装置还包括:第一添加单元,配置用于将所生成的属性信息添加到用户信息库中,其中,用户信息库中的信息在存储预设时长之后失效。
在本实施例的一些可选的实现方式中,确定单元,还包括:对比模块,配置用于将脸部图像所呈现的人脸与预先获取的人脸图像集合中的人脸图像所呈现的人脸进行人脸对比;获取模块,配置用于若确定在人脸图像集合中存在与脸部图像相匹配的人脸图像,获取相匹配的人脸图像所对应的用户的用户信息。
在本实施例的一些可选的实现方式中,该装置还包括:第二添加单元,配置用于将所生成的属性信息和相匹配的人脸图像所对应的用户的用户信息添加到用户信息库中,其中,用户信息库中的信息在存储预设时长之后失效。
在本实施例的一些可选的实现方式中,输入信息包括语音信息;信息确定单元,包括:转换模块,配置用于将语音信息转换为文本信息;分析模块,配置用于对文本信息进行分析,得到用户的意图信息;查找模块,配置用于在用户信息库中查找意图信息对应的信息;回复确定模块,配置用于基于查找到的信息生成回复信息。
图7示出了适于用来实现本申请实施例的服务器的计算机装置的结构示意图。如图7所示,计算机装置700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有装置700操作所需的各种程序和数据。CPU 701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的装置、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行装置、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行装置、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括接收单元、确定单元、信息确定单元和发送单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,接收单元还可以被描述为“接收终端设备发送的用户的输入信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:接收终端设备发送的用户的输入信息,并接收终端设备发送的终端设备采集的用户的脸部图像;对脸部图像进行人脸识别,确定用户的用户信息,其中,用户信息包括属性信息;基于用户信息,确定输入信息的回复信息;将回复信息发送给终端设备。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (16)

1.一种基于人工智能的信息处理方法,所述方法用于服务器,所述服务器与终端设备通信连接,包括:
接收所述终端设备发送的用户的输入信息,并接收所述终端设备发送的所述终端设备采集的所述用户的脸部图像;
对所述脸部图像进行人脸识别,确定所述用户的用户信息,其中,所述用户信息包括属性信息;
基于所述用户信息,确定所述输入信息的回复信息;
将所述回复信息发送给所述终端设备。
2.根据权利要求1所述的基于人工智能的信息处理方法,其中,所述属性信息包括以下至少一项:年龄、性别、表情和肤色。
3.根据权利要求1所述的基于人工智能的信息处理方法,其中,所述对所述脸部图像进行人脸识别,确定所述用户的用户信息,包括:
检测所述脸部图像所呈现的人脸,并对检测到的人脸进行特征点定位;
根据所定位的特征点生成所述用户的属性信息。
4.根据权利要求3所述的基于人工智能的信息处理方法,其中,在所述基于所述用户信息,确定所述输入信息的回复信息之前,所述方法还包括:
将所生成的属性信息添加到用户信息库中,其中,所述用户信息库中的信息在存储预设时长之后失效。
5.根据权利要求3所述的基于人工智能的信息处理方法,其中,所述对所述脸部图像进行人脸识别,确定所述用户的用户信息,还包括:
将所述脸部图像所呈现的人脸与预先获取的人脸图像集合中的人脸图像所呈现的人脸进行人脸对比;
若确定在所述人脸图像集合中存在与所述脸部图像相匹配的人脸图像,获取所述相匹配的人脸图像所对应的用户的用户信息。
6.根据权利要求5所述的基于人工智能的信息处理方法,其中,在所述基于所述用户信息,确定所述输入信息的回复信息之前,所述方法还包括:
将所生成的属性信息和所述相匹配的人脸图像所对应的用户的用户信息添加到用户信息库中,其中,所述用户信息库中的信息在存储预设时长之后失效。
7.根据权利要求4或6之一所述的基于人工智能的信息处理方法,其中,所述输入信息包括语音信息;
所述基于所述用户信息,确定所述输入信息的回复信息,包括:
将所述语音信息转换为文本信息;
对所述文本信息进行分析,得到所述用户的意图信息;
在所述用户信息库中查找所述意图信息对应的信息;
基于查找到的信息生成回复信息。
8.一种基于人工智能的信息处理装置,所述装置用于服务器,所述服务器与终端设备通信连接,包括:
接收单元,配置用于接收所述终端设备发送的用户的输入信息,并接收所述终端设备发送的所述终端设备采集的所述用户的脸部图像;
确定单元,配置用于对所述脸部图像进行人脸识别,确定所述用户的用户信息,其中,所述用户信息包括属性信息;
信息确定单元,配置用于基于所述用户信息,确定所述输入信息的回复信息;
发送单元,配置用于将所述回复信息发送给所述终端设备。
9.根据权利要求8所述的基于人工智能的信息处理装置,其中,所述属性信息包括以下至少一项:年龄、性别、表情和肤色。
10.根据权利要求8所述的基于人工智能的信息处理装置,其中,所述确定单元,包括:
检测模块,配置用于检测所述脸部图像所呈现的人脸,并对检测到的人脸进行特征点定位;
生成模块,配置用于根据所定位的特征点生成所述用户的属性信息。
11.根据权利要求10所述的基于人工智能的信息处理装置,其中,所述装置还包括:
第一添加单元,配置用于将所生成的属性信息添加到用户信息库中,其中,所述用户信息库中的属性信息在存储预设时长之后失效。
12.根据权利要求10所述的基于人工智能的信息处理装置,其中,所述确定单元,还包括:
对比模块,配置用于将所述脸部图像所呈现的人脸与预先获取的人脸图像集合中的人脸图像所呈现的人脸进行人脸对比;
获取模块,配置用于若确定在所述人脸图像集合中存在与所述脸部图像相匹配的人脸图像,获取所述相匹配的人脸图像所对应的用户的用户信息。
13.根据权利要求12所述的基于人工智能的信息处理装置,其中,所述装置还包括:
第二添加单元,配置用于将所生成的属性信息和所述相匹配的人脸图像所对应的用户的用户信息添加到用户信息库中,其中,所述用户信息库中的属性信息在存储预设时长之后失效。
14.根据权利要求11或13之一所述的基于人工智能的信息处理装置,其中,所述输入信息包括语音信息;
所述信息确定单元,包括:
转换模块,配置用于将所述语音信息转换为文本信息;
分析模块,配置用于对所述文本信息进行分析,得到所述用户的意图信息;
查找模块,配置用于在所述用户信息库中查找所述意图信息对应的信息;
回复确定模块,配置用于基于查找到的信息生成回复信息。
15.一种服务器,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN201711138240.8A 2017-11-16 2017-11-16 基于人工智能的信息处理方法和装置 Active CN107832720B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711138240.8A CN107832720B (zh) 2017-11-16 2017-11-16 基于人工智能的信息处理方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711138240.8A CN107832720B (zh) 2017-11-16 2017-11-16 基于人工智能的信息处理方法和装置

Publications (2)

Publication Number Publication Date
CN107832720A true CN107832720A (zh) 2018-03-23
CN107832720B CN107832720B (zh) 2022-07-08

Family

ID=61651725

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711138240.8A Active CN107832720B (zh) 2017-11-16 2017-11-16 基于人工智能的信息处理方法和装置

Country Status (1)

Country Link
CN (1) CN107832720B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108492145A (zh) * 2018-03-30 2018-09-04 百度在线网络技术(北京)有限公司 人机交互方法和装置
CN109147800A (zh) * 2018-08-30 2019-01-04 百度在线网络技术(北京)有限公司 应答方法和装置
CN109739970A (zh) * 2018-12-29 2019-05-10 联想(北京)有限公司 信息处理方法及装置、以及电子设备
CN110223718A (zh) * 2019-06-18 2019-09-10 联想(北京)有限公司 一种数据处理方法、装置及存储介质
CN113823285A (zh) * 2021-09-30 2021-12-21 广东美的厨房电器制造有限公司 信息录入方法及其装置、家用电器和可读存储介质

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128015A (ja) * 2008-11-25 2010-06-10 Toyota Central R&D Labs Inc 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム
CN103236259A (zh) * 2013-03-22 2013-08-07 乐金电子研发中心(上海)有限公司 语音识别处理及反馈系统、语音回复方法
CN103731728A (zh) * 2014-01-24 2014-04-16 浪潮软件集团有限公司 一种实时收视调查的方法
CN103841357A (zh) * 2012-11-21 2014-06-04 中兴通讯股份有限公司 基于视频跟踪的麦克风阵列声源定位方法、装置及系统
CN105139470A (zh) * 2015-09-30 2015-12-09 杭州海康威视数字技术股份有限公司 基于人脸识别的考勤方法、装置及系统
CN105205457A (zh) * 2015-09-10 2015-12-30 上海卓易科技股份有限公司 一种基于人脸识别的信息获取系统及方法
CN105357442A (zh) * 2015-11-27 2016-02-24 小米科技有限责任公司 摄像头拍摄角度调整方法及装置
CN105563493A (zh) * 2016-02-01 2016-05-11 昆山市工业技术研究院有限责任公司 一种高度方位自适应的服务机器人及适应方法
CN105808695A (zh) * 2016-03-03 2016-07-27 陈包容 一种获取聊天回复内容的方法及装置
CN105894405A (zh) * 2016-04-25 2016-08-24 百度在线网络技术(北京)有限公司 基于人工智能的点餐交互系统和方法
CN105930374A (zh) * 2016-04-12 2016-09-07 华南师范大学 基于最近反馈的情感机器人对话方法、系统以及机器人
CN106128453A (zh) * 2016-08-30 2016-11-16 深圳市容大数字技术有限公司 一种机器人的智能识别语音自动应答方法及机器人
CN106354835A (zh) * 2016-08-31 2017-01-25 上海交通大学 基于上下文语义理解的人工对话辅助系统
CN106550156A (zh) * 2017-01-23 2017-03-29 苏州咖啦魔哆信息技术有限公司 一种基于语音识别的人工智能客服系统及其实现方法
CN106648082A (zh) * 2016-12-09 2017-05-10 厦门快商通科技股份有限公司 一种模拟真人互动的智能服务设备及方法
CN106658441A (zh) * 2015-11-04 2017-05-10 陈包容 一种快捷回复未读信息的方法及装置
CN106682113A (zh) * 2016-12-07 2017-05-17 广东小天才科技有限公司 一种习题搜索方法及设备
CN106790054A (zh) * 2016-12-20 2017-05-31 四川长虹电器股份有限公司 基于人脸识别和声纹识别的交互式认证系统及方法
CN107169113A (zh) * 2017-05-19 2017-09-15 网易(杭州)网络有限公司 用于基于用户性格实现人工智能对话的方法及设备

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128015A (ja) * 2008-11-25 2010-06-10 Toyota Central R&D Labs Inc 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム
CN103841357A (zh) * 2012-11-21 2014-06-04 中兴通讯股份有限公司 基于视频跟踪的麦克风阵列声源定位方法、装置及系统
CN103236259A (zh) * 2013-03-22 2013-08-07 乐金电子研发中心(上海)有限公司 语音识别处理及反馈系统、语音回复方法
CN103731728A (zh) * 2014-01-24 2014-04-16 浪潮软件集团有限公司 一种实时收视调查的方法
CN105205457A (zh) * 2015-09-10 2015-12-30 上海卓易科技股份有限公司 一种基于人脸识别的信息获取系统及方法
CN105139470A (zh) * 2015-09-30 2015-12-09 杭州海康威视数字技术股份有限公司 基于人脸识别的考勤方法、装置及系统
CN106658441A (zh) * 2015-11-04 2017-05-10 陈包容 一种快捷回复未读信息的方法及装置
CN105357442A (zh) * 2015-11-27 2016-02-24 小米科技有限责任公司 摄像头拍摄角度调整方法及装置
CN105563493A (zh) * 2016-02-01 2016-05-11 昆山市工业技术研究院有限责任公司 一种高度方位自适应的服务机器人及适应方法
CN105808695A (zh) * 2016-03-03 2016-07-27 陈包容 一种获取聊天回复内容的方法及装置
CN105930374A (zh) * 2016-04-12 2016-09-07 华南师范大学 基于最近反馈的情感机器人对话方法、系统以及机器人
CN105894405A (zh) * 2016-04-25 2016-08-24 百度在线网络技术(北京)有限公司 基于人工智能的点餐交互系统和方法
CN106128453A (zh) * 2016-08-30 2016-11-16 深圳市容大数字技术有限公司 一种机器人的智能识别语音自动应答方法及机器人
CN106354835A (zh) * 2016-08-31 2017-01-25 上海交通大学 基于上下文语义理解的人工对话辅助系统
CN106682113A (zh) * 2016-12-07 2017-05-17 广东小天才科技有限公司 一种习题搜索方法及设备
CN106648082A (zh) * 2016-12-09 2017-05-10 厦门快商通科技股份有限公司 一种模拟真人互动的智能服务设备及方法
CN106790054A (zh) * 2016-12-20 2017-05-31 四川长虹电器股份有限公司 基于人脸识别和声纹识别的交互式认证系统及方法
CN106550156A (zh) * 2017-01-23 2017-03-29 苏州咖啦魔哆信息技术有限公司 一种基于语音识别的人工智能客服系统及其实现方法
CN107169113A (zh) * 2017-05-19 2017-09-15 网易(杭州)网络有限公司 用于基于用户性格实现人工智能对话的方法及设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MUHTADIN 等: "Implementation of Face Detection and Recognition of Indonesian Language in Communication Between Humans and Robots", 《2016 INTERNATIONAL CONFERENCE ON INFORMATION, COMMUNICATION TECHNOLOGY AND SYSTEM》 *
刘鹏宇: "智能识别:人机交互的桥梁", 《互联网经济》 *
邱玉 等: "基于表情识别的人机交互系统研究与设计", 《计算机光盘软件与应用》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108492145A (zh) * 2018-03-30 2018-09-04 百度在线网络技术(北京)有限公司 人机交互方法和装置
CN109147800A (zh) * 2018-08-30 2019-01-04 百度在线网络技术(北京)有限公司 应答方法和装置
US11475897B2 (en) 2018-08-30 2022-10-18 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for response using voice matching user category
CN109739970A (zh) * 2018-12-29 2019-05-10 联想(北京)有限公司 信息处理方法及装置、以及电子设备
CN110223718A (zh) * 2019-06-18 2019-09-10 联想(北京)有限公司 一种数据处理方法、装置及存储介质
CN113823285A (zh) * 2021-09-30 2021-12-21 广东美的厨房电器制造有限公司 信息录入方法及其装置、家用电器和可读存储介质

Also Published As

Publication number Publication date
CN107832720B (zh) 2022-07-08

Similar Documents

Publication Publication Date Title
CN107832720A (zh) 基于人工智能的信息处理方法和装置
CN111930940B (zh) 一种文本情感分类方法、装置、电子设备及存储介质
US9875445B2 (en) Dynamic hybrid models for multimodal analysis
CN107491547A (zh) 基于人工智能的搜索方法和装置
US11068474B2 (en) Sequence to sequence conversational query understanding
CN107393541A (zh) 信息验证方法和装置
CN107590807A (zh) 用于检测图像质量的方法和装置
US20200075024A1 (en) Response method and apparatus thereof
CN108121800A (zh) 基于人工智能的信息生成方法和装置
CN108491808B (zh) 用于获取信息的方法及装置
CN107832305A (zh) 用于生成信息的方法和装置
CN107424019A (zh) 基于情绪识别的艺术品推荐方法、装置、介质和电子设备
CN111274372A (zh) 用于人机交互的方法、电子设备和计算机可读存储介质
CN114787814A (zh) 指代解析
CN111813910B (zh) 客服问题的更新方法、系统、终端设备及计算机存储介质
CN109766418A (zh) 用于输出信息的方法和装置
CN107862058A (zh) 用于生成信息的方法和装置
CN108665676A (zh) 用于识别危险语句的系统及其识别方法
CN109656940A (zh) 一种基于ar眼镜的智能学习辅助系统及方法
CN114724224A (zh) 一种用于医疗护理机器人的多模态情感识别方法
CN112053205A (zh) 通过机器人情绪识别的产品推荐方法及装置
CN115759001A (zh) 语言模型训练方法、文本预测方法以及装置
CN110633677A (zh) 人脸识别的方法及装置
CN113705792A (zh) 基于深度学习模型的个性化推荐方法、装置、设备及介质
CN109829431A (zh) 用于生成信息的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant