CN112733649A - 基于视频图像识别用户意图的方法及相关设备 - Google Patents
基于视频图像识别用户意图的方法及相关设备 Download PDFInfo
- Publication number
- CN112733649A CN112733649A CN202011612579.9A CN202011612579A CN112733649A CN 112733649 A CN112733649 A CN 112733649A CN 202011612579 A CN202011612579 A CN 202011612579A CN 112733649 A CN112733649 A CN 112733649A
- Authority
- CN
- China
- Prior art keywords
- user
- intention
- target
- feature
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及人工智能技术领域,提供一种基于视频图像识别用户意图的方法及相关设备,所述方法包括:提取用户的视频图像中的对话文本和用户的图像,以及提取所述用户图像中预设位置对应的表情特征和肢体特征;提取所述对话文本的第一文本向量,并将所述第一文本向量编码为第一编码特征,将所述第一编码特征映射到目标空间得到第一特征点;使用计算模型计算所述第一特征点与所述目标空间中的多个第二特征点之间的多个特征度量值,并根据所述多个特征度量值对应的意图类别计算得到第一用户意图;将所述表情特征和肢体特征确定第二用户意图;及根据所述第一用户意图和所述第二用户意图确定用户的目标意图。通过本发明可以提供更加优质准确的服务。
Description
技术领域
本发明涉及计算机技术领域,具体涉及一种基于视频图像识别用户意图的方法及相关设备。
背景技术
目前,对于国内的各大银行机构,银行业务办理大厅都设有人工询问业务办理的窗口和数量不一的业务办理窗口。在业务办理高峰期的时候,常常容易出现排号过多,造成大量业务咨询或者办理人员排队等候的局面。由此出现了咨询人员通过智能语音终端执行银行业务操作。然而,在一些环境不太好的场景(例如噪音太大)下,所述智能语音终端识别咨询人员的意图的识别率较低。从而出现需要多次识别的现象,严重影响了客户体验和办公效率,不利于满意度分析。
发明内容
鉴于以上内容,有必要提出一种基于视频图像识别用户意图的方法及相关设备,可以解决以上问题。
本发明的第一方面提供一种基于视频图像识别用户意图的方法,所述方法包括:
提取用户的视频图像中的对话文本和用户的图像,以及提取所述用户图像中预设位置对应的表情特征和肢体特征;
提取所述对话文本的第一文本向量,并将所述第一文本向量编码为第一编码特征,将所述第一编码特征映射到目标空间得到第一特征点;
使用计算模型计算所述第一特征点与所述目标空间中的多个第二特征点之间的多个特征度量值,并根据所述多个特征度量值对应的意图类别计算得到第一用户意图;
将所述表情特征输入至预先训练好的表情识别模型中得到表情识别结果,将所述肢体特征输入至预先训练好的肢体识别模型中得到动作识别结果;
根据所述表情识别结果和所述动作识别结果确定第二用户意图;及
根据所述第一用户意图和所述第二用户意图确定用户的目标意图。
根据本申请一些实施方式,所述方法还包括:
获取多个意图类别对应的多个意图文本;
提取所述意图文本的第二文本向量;
将所述第二文本向量编码为第二编码特征;
根据同一个意图类别对应的多个第二编码特征计算得到第一离散度矩阵;
根据多个意图类别对应的多个第二编码特征计算得到第二离散度矩阵;
基于所述第一离散度矩阵和所述第二离散度矩阵构建目标矩阵;
计算所述目标矩阵的多个特征值;
根据所述目标矩阵及所述多个特征值计算所述目标空间。
根据本申请一些实施方式,所述根据所述多个特征度量值对应的意图类别计算得到第一用户意图包括:
从所述多个特征度量值中筛选大于预设度量阈值的多个目标特征度量值;
确定所述多个目标特征度量值对应的目标意图类别;
计算同一个目标意图类别对应的目标特征度量值的个数;
确定最大个数对应的目标意图类别为所述第一用户意图。
根据本申请一些实施方式,根据所述表情识别结果和所述动作识别结果确定第二用户意图包括:
将获取的表情识别结果与表情与意图关系对照表中的表情信息进行匹配,以确定与所述获取的表情识别结果相对应的意图信息;以及
将获取的动作识别结果与肢体动作与意图关系对照表中的动作信息进行匹配,以确定与所述获取的动作识别结果相对应的意图信息;
根据所述获取的表情识别结果相对应的意图信息和所述获取的动作识别结果相对应的意图信息作为所述第二用户意图。
根据本申请一些实施方式,根据所述第一用户意图和所述第二用户意图确定用户的目标意图包括:
若所述视频图像中没有对话文本,确定所述用户的目标意图为所述第二用户意图;或者
若所述视频图像中没有表情特征和肢体特征,确定所述用户的目标意图为所述第一用户意图;或者
若所述视频图像中包括对话文本、表情特征和肢体特征,通过设置所述第一用户意图的权重和所述第二用户意图的权重来确定用户的目标意图。
根据本申请一些实施方式,所述方法还包括:
从意图标签知识库中查询与所述目标意图对应的多个话术;
按照预设的优先级拼接所述多个话术得到目标话术;
根据所述目标话术进行下一轮的对话。
本发明的第二方面提供一种基于视频图像识别用户意图的装置,所述装置包括:
提取模块,用于提取用户的视频图像中的对话文本和用户图像,以及提取所述用户图像中预设位置对应的表情特征和肢体特征;
所述提取模块,还用于提取所述对话文本的第一文本向量,并将所述第一文本向量编码为第一编码特征,将所述第一编码特征映射到目标空间得到第一特征点;
处理模块,用于使用计算模型计算所述第一特征点与所述目标空间中的多个第二特征点之间的多个特征度量值,并根据所述多个特征度量值对应的意图类别计算得到第一用户意图;
所述处理模块,还用于将所述表情特征输入至预先训练好的表情识别模型中得到表情识别结果,将所述肢体特征输入至预先训练好的肢体识别模型中得到动作识别结果;
确定模块,用于根据所述表情识别结果和所述动作识别结果确定第二用户意图;及
所述确定模块,还用于根据所述第一用户意图和所述第二用户意图确定用户的目标意图。
本发明的第三方面提供一种电子装置,所述电子装置包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现所述基于视频图像识别用户意图的方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述基于视频图像识别用户意图的方法。
本发明所述的基于视频图像识别用户意图的方法及相关设备。通过将视频图像中的对话文本映射到目标空间,以确定所述对话文本对应的第一用户意图,以及根据所述表情识别结果和所述动作识别结果确定第二用户意图就,根据所述第一用户意图和所述第二用户意图确定用户的目标意图。可以根据用户的对话,表情和肢体动作更加准确的确定用户的意图,从而在用户进行银行交互业务时,提供更加优质准确的服务。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明实施例一提供的基于视频图像识别用户意图的方法的流程图。
图2是本发明实施例二提供的基于视频图像识别用户意图装置的功能模块图。
图3是本发明实施例三提供的电子装置的示意图。
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”和“第三”等是用于区别不同对象,而非用于描述特定顺序。此外,术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例的基于视频图像识别用户意图的方法应用在电子装置中。所述对于需要识别用户意图的电子装置,可以直接在电子装置上集成本发明的方法所提供的基于视频图像识别用户意图的功能,或者安装用于实现本发明的方法的客户端。再如,本发明所提供的方法还可以以软件开发工具包(Software Development Kit,SDK)的形式运行在服务器等设备上,以SDK的形式提供识别用户意图的功能的接口,电子装置或其他设备通过提供的接口即可实现识别用户意图的功能。
实施例一
图1是本发明实施例一提供的基于视频图像识别用户意图的方法的流程图。根据不同的需求,所述流程图中的执行顺序可以改变,某些步骤可以省略。
步骤S1,提取用户的视频图像中的对话文本和用户图像,以及提取所述用户图像中预设位置对应的表情特征和肢体特征。
在本实施方式中,在用户与银行智能语音设备交互的过程中,为了避免仅通过语音信息确定用户意图时,由于环境因素影响等原因造成的不准确。本申请除了提取所述视频图像中的对话文本,还可以根据用户的表情以及肢体特征来准确判断用户的意图。
用户的表情是一种可完成精细信息沟通的体语形式。一般来说,表现满意的关键部位是嘴、颊、眉、额头,表现不满意的关键部位是嘴、眉头。譬如,一个人眉毛上扬、挤在一起,呈现出的是一种疑惑、忧虑的意图;嘴周肌肉收缩并且上扬,呈现出的是一种认可的意图。因此,可以预先设定嘴角、眼脸、眉毛、额头、下巴为特征点,即,嘴角、眼脸、眉毛、额头、下巴等部位为预定点。
具体地,从所述用户的图像中提取预定点的表情特征包括:根据预先设置的人脸检测算法从所述用户图像中检测出人脸;提取出所述人脸中预设位置对应的表情特征。
用户的肢体动作也能表达用户的意图。一些惯用的动作,手势、站姿和身体姿势都能表达用户的某种意图,例如,点头表示认可,摇头表示不认可等。因此,在获取到用户图像之后,提取出用户图像中的手势、站姿和身体姿势等肢体特征。
本实施例中,提取对话文本、提取表情特征、肢体特征均为现有技术,在此不再详细赘述。
在本实施方式中,在步骤S1之前,所述方法还包括:实时获取预设区域内用户的视频图像的步骤。
在本实施方式中,所述预设区域可以是银行、工地、公园、学校或其他公共场所。例如,当用户在银行处理相关业务时,可以直接与银行智能语音助手交互,通过摄像头拍摄用户与银行智能语音助手交互过程中的视频图像,并发送所述视频图像至电子装置。可以理解的是,所述视频图像还可以是在用户办理银行业务时,与其他设备进行交互过程中的视频图像。需要说明的是,所述摄像头与所述电子装置通信连接。
步骤S2,提取所述对话文本的第一文本向量,并将所述第一文本向量编码为第一编码特征,将所述第一编码特征映射到目标空间得到第一特征点。
先通过现有的多个意图文本对应的文本来构建高维的目标空间。通过所述目标空间可以将多个意图文本聚为同一类,不同的意图文本投影在所述目标空间后尽量地分开。先计算同一个意图类别对应的第一离散度矩阵,再计算所有意图类别对应的第二离散度矩阵,并基于所述第一离散度矩阵和所述第二离散度矩阵构建目标矩阵以计算所述目标空间。需要说明的是,可以采用Bert模型提取所述对话文本的第一文本向量,所述Bert模型为现有技术,在此不再赘述。
具体地,构建所述目标空间的方法包括:
(1)获取多个意图类别对应的多个意图文本,提取所述意图文本的第二文本向量,将所述第二文本向量编码为第二编码特征。
在本实施方式中,所述多个意图类别对应的多个意图文本为现有的意图类别对应的文本。提取所述意图文本的第二文本向量的方法与提取所述视频图像中的第一文本向量的方法相同,在此不再赘述。
(2)根据同一个意图类别对应的多个第二编码特征计算得到第一离散度矩阵;具体地,先计算同一个意图类别中每个意图类别对应的第二编码特征(例如,均值),然后根据所述第二编码特征计算同一类文本的离散度矩阵,将同一个类别中每个意图类别对应的离散度矩阵加起来得到所述第一离散度矩阵。
(3)根据多个意图类别对应的多个第二编码特征计算得到第二离散度矩阵;在本实施方式中,计算所述第二离散度矩阵的方法与计算所述第一离散度矩阵的方法相同,在此不再赘述。
(4)基于所述第一离散度矩阵和所述第二离散度矩阵构建目标矩阵;在本实施方式中,计算所述第一离散度矩阵的逆矩阵,将所述第一离散度矩阵的逆矩阵与所述第二离散度矩阵点乘得到所述目标矩阵。
(5)计算所述目标矩阵的多个特征值,及根据所述目标矩阵及所述多个特征值计算所述目标空间。
需要说明的是,所述目标矩阵、与特征值以及所述目标空间存在对应关系,其中,所述目标矩阵乘以投影空间(即目标空间)等于所述特征值乘以所述投影空间。当确定了所述目标矩阵以及目标矩阵的多个特征值,就能根据所述对应关系得到所述目标空间。
在本实施方式中,由于直接通过文本计算不同文本之间的特征度量值需要花费很大的计算量才能实现,而通过映射关系得到特征点以及通过计算特征点确定文本之间的特征度量值,可以减少计算量。并且将本申请的对话文本和现有技术中不同意图对应的对话文本映射至相同的目标空间,就会使得本申请的对话文本和现有技术中不同意图对应的对话文本具有相同的度量指标,从而使得在确认本申请对话文本意图时的准确度会更高。
步骤S3,使用计算模型计算所述第一特征点与所述目标空间中的多个第二特征点之间的多个特征度量值,并根据所述多个特征度量值对应的意图类别计算得到第一用户意图。
在本实施方式中,将本申请提取的对话文本映射至所述目标空间得到第一特征点,根据所述第一特征点和所述目标空间可以确定所述提取的对话文本的第一用户意图。
具体地,在通过所述目标空间得到本申请的对话文本的第一特征点和目标空间中多个不同意图文本的第二特征点后,需要根据所述第一特征点和所述第二特征点来确认本申请中的对话文本对应的第一用户意图。先通过使用计算模型先计算所述第一特征点与所述目标空间中的多个第二特征点之间的多个特征度量值,再根据所述多个特征度量值对应的意图类别确定所述第一用户意图。
虽然可以选择所述多个特征度量值中最大的特征度量值对应的意图作为所述第一用户意图。但是由于存在多个不同意图对应的文本对应的特征度量值相同,导致确认所述对话文本的第一用户意图不准确。所以需要先从所述多个特征度量值中筛选大于预设度量阈值的多个目标特征度量值,再从所述多个目标特征度量值中确定本申请的对话文本的第一用户意图。
具体地,所述根据所述多个特征度量值对应的意图类别计算得到第一用户意图包括:从所述多个特征度量值中筛选大于预设度量阈值的多个目标特征度量值;确定所述多个目标特征度量值对应的目标意图类别;计算同一个目标意图类别对应的目标特征度量值的个数;确定最大个数对应的目标意图类别为所述第一用户意图。
步骤S4,将所述表情特征输入至预先训练好的表情识别模型中得到表情识别结果,将所述肢体特征输入至预先训练好的肢体识别模型中得到动作识别结果。
本实施例中,所述表情识别模型、肢体识别模型是预先训练好的神经网络模型,在得到表情特征、肢体特征之后,同时将表情特征、肢体特征分别输入至表情识别模型、肢体识别模型中进行表情和动作的识别。
其中,所述表情识别模型的训练过程包括:
获取历史用户的表情特征及对应的表情结果,形成数据集;
将所述数据集随机分为第一数量的训练集和第二数量的测试集;
将所述训练集输入至预设卷积神经网络中进行训练,得到表情满意度识别模型;
将所述测试集输入至所述表情识别模型中进行测试,得到测试通过率;
判断所述测试通过率是否大于预设通过率阈值;
当所述测试通过率大于或者等于所述预设通过率阈值时,结束表情识别模型的训练;否则,当所述测试通过率小于所述预设通过率阈值时,重新训练表情识别模型直至所述测试通过率大于或者等于所述预设通过率阈值。
关于所述肢体识别模型的训练过程同所述表情满意度识别过程,在此不再详细阐述。
步骤S5,根据所述表情识别结果和所述动作识别结果确定第二用户意图。
在本实施方式中,用户的表情及肢体动作可以反映用户的意图,因此,可以根据所述表情识别结果与所述动作识别结果确定第二用户意图。具体地,所述电子装置中预先存储有表情与意图关系对照表,以及肢体动作与意图关系对照表。
在本实施方式中,所述根据所述表情识别结果和所述动作识别结果确定第二用户意图包括:将获取的表情识别结果与所述表情与意图关系对照表中的表情信息进行匹配以确定与所述获取的表情识别结果相对应的意图信息;以及将获取的动作识别结果与所述肢体动作与意图关系对照表中的动作信息进行匹配以确定与所述获取的动作识别结果相对应的意图信息;并根据所述获取的表情识别结果相对应的意图信息和所述获取的动作识别结果相对应的意图信息作为所述第二用户意图。
需要说明的是,一般情况下,用户针对同一意图呈现的表情和肢体动作是有关联关系的。例如,当用户的意图为满意时,用户呈现的表情为微笑,同时呈现的肢体动作为点头。当用户的意图为不满意时,用户呈现的表情为疑虑,同时呈现的肢体动作为摇头。若所述获取的表情识别结果相对应的意图信息和所述获取的动作识别结果相对应的意图信息相同,确定所述获取的表情识别结果相对应的意图信息或者所述获取的动作识别结果相对应的意图信息作为所述第一用户意图;若所述获取的表情识别结果相对应的意图信息和所述获取的动作识别结果相对应的意图信息不相同,输出无法识别第一用户意图的提示。如此,可以通过表情和肢体动作更加准确地识别用户意图。
步骤S6,根据所述第一用户意图和所述第二用户意图确定用户的目标意图。
一般情况下,可以根据所述第一用户意图直接确认用户的目标意图,而所述第二用户意图可以作为所述用户的目标意图的辅助确认。在本实施方式中,可以通过设置所述第一用户意图的权重和所述第二用户意图的权重来确定用户的目标意图。
需要说明的是,若所述视频图像中没有对话文本,可以根据所述第二用户意图直接确定所述用户的目标意图;或者若所述视频图像中没有表情特征和肢体特征,可以根据所述第一用户意图确定所述用户的目标意图。如此,可以解决在用户跟银行智能语音进行交互的过程中,由于环境因素造成无法通过语音确认用户准确意图的情况,通过所述表情特征和肢体特征来确认用户的目标意图。
在本实施方式中,在用户与银行智能语音设备交互的过程中,可能存在多个话术,在识别所述目标意图后,可能需要进行下一个话术。所述方法还包括:从意图标签知识库中查询与所述目标意图对应的多个话术;按照预设的优先级拼接所述多个话术得到目标话术;根据所述目标话术进行下一轮的对话。
可以理解的是,所述目标意图可能包括多个话术字段,通过意图标签知识库可以查询得到所述目标意图对应的多个话术。在所述意图标签知识库中每个话术字段的优先级并不相同。在本申请中,可以按照预设的优先级拼接多个话术字段得到所述目标话术,再根据所述目标话术进行下一轮对话。
综上所述,本发明提供的基于视频图像识别用户意图的方法包括:提取用户的视频图像中的对话文本和用户的图像,以及提取所述用户图像中预设位置对应的表情特征和肢体特征;提取所述对话文本的第一文本向量,并将所述第一文本向量编码为第一编码特征,将所述第一编码特征映射到目标空间得到第一特征点;使用计算模型计算所述第一特征点与所述目标空间中的多个第二特征点之间的多个特征度量值,并根据所述多个特征度量值对应的意图类别计算得到第一用户意图;将所述表情特征输入至预先训练好的表情识别模型中得到表情识别结果,将所述肢体特征输入至预先训练好的肢体识别模型中得到动作识别结果;根据所述表情识别结果和所述动作识别结果确定第二用户意图;及根据所述第一用户意图和所述第二用户意图确定用户的目标意图。上述基于视频图像识别用户意图的方法,可以根据用户的对话,表情和肢体动作更加准确的确定用户的意图,从而在用户进行银行交互业务时,提供更加优质准确的服务。
以上所述,仅是本发明的具体实施方式,但本发明的保护范围并不局限于此,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进,但这些均属于本发明的保护范围。
下面结合图2和图3,分别对实现上述基于视频图像识别用户意图的方法的电子装置的功能模块及硬件结构进行介绍。
实施例二
图2为本发明基于视频图像识别用户意图的装置较佳实施例中的功能模块图。
在一些实施例中,所述基于视频图像识别用户意图的装置20(为便于描述,简称为“识别装置”)运行于电子装置中。所述识别装置20可以包括多个由程序代码段所组成的功能模块。所述识别装置20中的各个程序段的程序代码可以存储于存储器中,并由至少一个处理器所执行,以执行识别用户意图的功能。
本实施例中,所述识别装置20根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:提取模块201、处理模块202、及确定模块203。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在一些实施例中,关于各模块的功能将在后续的实施例中详述。
所述提取模块201用于提取用户的视频图像中的对话文本和用户图像,以及提取所述用户图像中预设位置对应的表情特征和肢体特征。
在本实施方式中,在用户与银行智能语音设备交互的过程中,为了避免仅通过语音信息确定用户意图时,由于环境因素影响等原因造成的不准确。本申请除了提取所述视频图像中的对话文本,还可以根据用户的表情以及肢体特征来准确判断用户的意图。
用户的表情是一种可完成精细信息沟通的体语形式。一般来说,表现满意的关键部位是嘴、颊、眉、额头,表现不满意的关键部位是嘴、眉头。譬如,一个人眉毛上扬、挤在一起,呈现出的是一种疑惑、忧虑的意图;嘴周肌肉收缩并且上扬,呈现出的是一种认可的意图。因此,可以预先设定嘴角、眼脸、眉毛、额头、下巴为特征点,即,嘴角、眼脸、眉毛、额头、下巴等部位为预定点。
具体地,从所述用户的图像中提取预定点的表情特征包括:根据预先设置的人脸检测算法从所述用户图像中检测出人脸;提取出所述人脸中预设位置对应的表情特征。
用户的肢体动作也能表达用户的意图。一些惯用的动作,手势、站姿和身体姿势都能表达用户的某种意图,例如,点头表示认可,摇头表示不认可等。因此,在获取到用户图像之后,提取出用户图像中的手势、站姿和身体姿势等肢体特征。
本实施例中,提取对话文本、提取表情特征、肢体特征均为现有技术,在此不再详细赘述。
在本实施方式中,所述提取模块201还用于实时获取预设区域内用户的视频图像。
在本实施方式中,所述预设区域可以是银行、工地、公园、学校或其他公共场所。例如,当用户在银行处理相关业务时,可以直接与银行智能语音助手交互,通过摄像头拍摄用户与银行智能语音助手交互过程中的视频图像,并发送所述视频图像至电子装置。可以理解的是,所述视频图像还可以是在用户办理银行业务时,与其他设备进行交互过程中的视频图像。需要说明的是,所述摄像头与所述电子装置通信连接。
所述提取模块201还用于提取所述对话文本的第一文本向量,并将所述第一文本向量编码为第一编码特征,将所述第一编码特征映射到目标空间得到第一特征点。
先通过现有的多个意图文本对应的文本来构建高维的目标空间。通过所述目标空间可以将多个意图文本聚为同一类,不同的意图文本投影在所述目标空间后尽量地分开。先计算同一个意图类别对应的第一离散度矩阵,再计算所有意图类别对应的第二离散度矩阵,并基于所述第一离散度矩阵和所述第二离散度矩阵构建目标矩阵以计算所述目标空间。需要说明的是,可以采用Bert模型提取所述对话文本的第一文本向量,所述Bert模型为现有技术,在此不再赘述。
具体地,构建所述目标空间的方法包括:
(1)获取多个意图类别对应的多个意图文本,提取所述意图文本的第二文本向量,将所述第二文本向量编码为第二编码特征。
在本实施方式中,所述多个意图类别对应的多个意图文本为现有的意图类别对应的文本。提取所述意图文本的第二文本向量的方法与提取所述视频图像中的第一文本向量的方法相同,在此不再赘述。
(2)根据同一个意图类别对应的多个第二编码特征计算得到第一离散度矩阵;具体地,先计算同一个意图类别中每个意图类别对应的第二编码特征(例如,均值),然后根据所述第二编码特征计算同一类文本的离散度矩阵,将同一个类别中每个意图类别对应的离散度矩阵加起来得到所述第一离散度矩阵。
(3)根据多个意图类别对应的多个第二编码特征计算得到第二离散度矩阵;在本实施方式中,计算所述第二离散度矩阵的方法与计算所述第一离散度矩阵的方法相同,在此不再赘述。
(4)基于所述第一离散度矩阵和所述第二离散度矩阵构建目标矩阵;
在本实施方式中,计算所述第一离散度矩阵的逆矩阵,将所述第一离散度矩阵的逆矩阵与所述第二离散度矩阵点乘得到所述目标矩阵。
(5)计算所述目标矩阵的多个特征值,及根据所述目标矩阵及所述多个特征值计算所述目标空间。
需要说明的是,所述目标矩阵、与特征值以及所述目标空间存在对应关系,其中,所述目标矩阵乘以投影空间(即目标空间)等于所述特征值乘以所述投影空间。当确定了所述目标矩阵以及目标矩阵的多个特征值,就能根据所述对应关系得到所述目标空间。
在本实施方式中,由于直接通过文本计算不同文本之间的特征度量值需要花费很大的计算量才能实现,而通过映射关系得到特征点以及通过计算特征点确定文本之间的特征度量值,可以减少计算量。并且将本申请的对话文本和现有技术中不同意图对应的对话文本映射至相同的目标空间,就会使得本申请的对话文本和现有技术中不同意图对应的对话文本具有相同的度量指标,从而使得在确认本申请对话文本意图时的准确度会更高。
所述处理模块202用于使用计算模型计算所述第一特征点与所述目标空间中的多个第二特征点之间的多个特征度量值,并根据所述多个特征度量值对应的意图类别计算得到第一用户意图。
在本实施方式中,将本申请提取的对话文本映射至所述目标空间得到第一特征点,根据所述第一特征点和所述目标空间可以确定所述提取的对话文本的第一用户意图。
具体地,在通过所述目标空间得到本申请的对话文本的第一特征点和目标空间中多个不同意图文本的第二特征点后,需要根据所述第一特征点和所述第二特征点来确认本申请中的对话文本对应的第一用户意图。先通过使用计算模型先计算所述第一特征点与所述目标空间中的多个第二特征点之间的多个特征度量值,再根据所述多个特征度量值对应的意图类别确定所述第一用户意图。
虽然可以选择所述多个特征度量值中最大的特征度量值对应的意图作为所述第一用户意图。但是由于存在多个不同意图对应的文本对应的特征度量值相同,导致确认所述对话文本的第一用户意图不准确。所以需要先从所述多个特征度量值中筛选大于预设度量阈值的多个目标特征度量值,再从所述多个目标特征度量值中确定本申请的对话文本的第一用户意图。
具体地,所述根据所述多个特征度量值对应的意图类别计算得到第一用户意图包括:从所述多个特征度量值中筛选大于预设度量阈值的多个目标特征度量值;确定所述多个目标特征度量值对应的目标意图类别;计算同一个目标意图类别对应的目标特征度量值的个数;确定最大个数对应的目标意图类别为所述第一用户意图。
所述处理模块202,还用于将所述表情特征输入至预先训练好的表情识别模型中得到表情识别结果,将所述肢体特征输入至预先训练好的肢体识别模型中得到动作识别结果。
本实施例中,所述表情识别模型、肢体识别模型是预先训练好的神经网络模型,在得到表情特征、肢体特征之后,同时将表情特征、肢体特征分别输入至表情识别模型、肢体识别模型中进行表情和动作的识别。
其中,所述表情识别模型的训练过程包括:
获取历史用户的表情特征及对应的表情结果,形成数据集;
将所述数据集随机分为第一数量的训练集和第二数量的测试集;
将所述训练集输入至预设卷积神经网络中进行训练,得到表情满意度识别模型;
将所述测试集输入至所述表情识别模型中进行测试,得到测试通过率;
判断所述测试通过率是否大于预设通过率阈值;
当所述测试通过率大于或者等于所述预设通过率阈值时,结束表情识别模型的训练;否则,当所述测试通过率小于所述预设通过率阈值时,重新训练表情识别模型直至所述测试通过率大于或者等于所述预设通过率阈值。
关于所述肢体识别模型的训练过程同所述表情满意度识别过程,在此不再详细阐述。
所述确定模块203用于根据所述表情识别结果和所述动作识别结果确定第二用户意图。
在本实施方式中,用户的表情及肢体动作可以反映用户的意图,因此,可以根据所述表情识别结果与所述动作识别结果确定第二用户意图。具体地,所述电子装置中预先存储有表情与意图关系对照表,以及肢体动作与意图关系对照表。
在本实施方式中,所述根据所述表情识别结果和所述动作识别结果确定第二用户意图包括:将获取的表情识别结果与所述表情与意图关系对照表中的表情信息进行匹配以确定与所述获取的表情识别结果相对应的意图信息;以及将获取的动作识别结果与所述肢体动作与意图关系对照表中的动作信息进行匹配以确定与所述获取的动作识别结果相对应的意图信息;并根据所述获取的表情识别结果相对应的意图信息和所述获取的动作识别结果相对应的意图信息作为所述第二用户意图。
需要说明的是,一般情况下,用户针对同一意图呈现的表情和肢体动作是有关联关系的。例如,当用户的意图为满意时,用户呈现的表情为微笑,同时呈现的肢体动作为点头。当用户的意图为不满意时,用户呈现的表情为疑虑,同时呈现的肢体动作为摇头。若所述获取的表情识别结果相对应的意图信息和所述获取的动作识别结果相对应的意图信息相同,确定所述获取的表情识别结果相对应的意图信息或者所述获取的动作识别结果相对应的意图信息作为所述第一用户意图;若所述获取的表情识别结果相对应的意图信息和所述获取的动作识别结果相对应的意图信息不相同,输出无法识别第一用户意图的提示。如此,可以通过表情和肢体动作更加准确地识别用户意图。
所述确定模块203还用于根据所述第一用户意图和所述第二用户意图确定用户的目标意图。
一般情况下,可以根据所述第一用户意图直接确认用户的目标意图,而所述第二用户意图可以作为所述用户的目标意图的辅助确认。在本实施方式中,可以通过设置所述第一用户意图的权重和所述第二用户意图的权重来确定用户的目标意图。
需要说明的是,若所述视频图像中没有对话文本,可以根据所述第二用户意图直接确定所述用户的目标意图;或者若所述视频图像中没有表情特征和肢体特征,可以根据所述第一用户意图确定所述用户的目标意图。如此,可以解决在用户跟银行智能语音进行交互的过程中,由于环境因素造成无法通过语音确认用户准确意图的情况,通过所述表情特征和肢体特征来确认用户的目标意图。
在本实施方式中,在用户与银行智能语音设备交互的过程中,可能存在多个话术,在识别所述目标意图后,可能需要进行下一个话术。所述识别装置20还可以:从意图标签知识库中查询与所述目标意图对应的多个话术;按照预设的优先级拼接所述多个话术得到目标话术;根据所述目标话术进行下一轮的对话。
可以理解的是,所述目标意图可能包括多个话术字段,通过意图标签知识库可以查询得到所述目标意图对应的多个话术。在所述意图标签知识库中每个话术字段的优先级并不相同。在本申请中,可以按照预设的优先级拼接多个话术字段得到所述目标话术,再根据所述目标话术进行下一轮对话。
综上所述,本发明提供的基于视频图像识别用户意图的装置包括:所述提取模块201用于提取用户的视频图像中的对话文本和用户图像,以及提取所述用户图像中预设位置对应的表情特征和肢体特征;所述提取模块201还用于提取所述对话文本的第一文本向量,并将所述第一文本向量编码为第一编码特征,将所述第一编码特征映射到目标空间得到第一特征点;处理模块202用于使用计算模型计算所述第一特征点与所述目标空间中的多个第二特征点之间的多个特征度量值,并根据所述多个特征度量值对应的意图类别计算得到第一用户意图;所述处理模块202还用于将所述表情特征输入至预先训练好的表情识别模型中得到表情识别结果,将所述肢体特征输入至预先训练好的肢体识别模型中得到动作识别结果;所述确定模块203用于根据所述表情识别结果和所述动作识别结果确定第二用户意图;及所述确定模块203还用于根据所述第一用户意图和所述第二用户意图确定用户的目标意图。所述识别装置20可以根据用户的对话,表情和肢体动作更加准确的确定用户的意图,从而在用户进行银行交互业务时,提供更加优质准确的服务。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,双屏设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分。
图3为本发明实施例三提供的电子装置的示意图。
所述电子装置3包括:存储器31、至少一个处理器32、存储在所述存储器31中并可在所述至少一个处理器32上运行的计算机程序33、至少一条通讯总线34及数据库35。
所述至少一个处理器32执行所述计算机程序33时实现上述基于视频图像识别用户意图的方法实施例中的步骤。
示例性的,所述计算机程序33可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器31中,并由所述至少一个处理器32执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,所述指令段用于描述所述计算机程序33在所述电子装置3中的执行过程。
所述电子装置3可以是计算机、手机、平板电脑、个人数字助理(Personal DigitalAssistant,PDA)等安装有应用程序的设备。本领域技术人员可以理解,所述示意图3仅仅是电子装置3的示例,并不构成对电子装置3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子装置3还可以包括输入输出设备、网络接入设备、总线等。
所述至少一个处理器32可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。所述处理器32可以是微处理器或者所述处理器32也可以是任何常规的处理器等,所述处理器32是所述电子装置3的控制中心,利用各种接口和线路连接整个电子装置3的各个部分。
所述存储器31可用于存储所述计算机程序33和/或模块/单元,所述处理器32通过运行或执行存储在所述存储器31内的计算机程序和/或模块/单元,以及调用存储在存储器31内的数据,实现所述电子装置3的各种功能。所述存储器31可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子装置3的使用所创建的数据等。此外,存储器31可以包括易失性/非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述存储器31中存储有程序代码,且所述至少一个处理器32可调用所述存储器31中存储的程序代码以执行相关的功能。例如,图2中所述的各个模块(提取模块201、处理模块202、及确定模块204)是存储在所述存储器31中的程序代码,并由所述至少一个处理器32所执行,从而实现所述各个模块的功能以达到识别用户意图的目的。
所述数据库(Database)35是按照数据结构来组织、存储和管理数据的建立在所述电子装置3上的仓库。数据库通常分为层次式数据库、网络式数据库和关系式数据库三种。在本实施方式中,所述数据库35用于存储所述表情与意图关系对照表和所述肢体动作与意图关系对照表等。
所述电子装置3集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,所述计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器等。
在本发明所提供的几个实施例中,应所述理解到,所揭露的电子装置和方法,可以通过其它的方式实现。例如,以上所描述的电子装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
另外,在本发明各个实施例中的各功能单元可以集成在相同处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在相同单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或,单数不排除复数。本发明中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神范围。
Claims (10)
1.一种基于视频图像识别用户意图的方法,其特征在于,所述方法包括:
提取用户的视频图像中的对话文本和用户的图像,以及提取所述用户图像中预设位置对应的表情特征和肢体特征;
提取所述对话文本的第一文本向量,并将所述第一文本向量编码为第一编码特征,将所述第一编码特征映射到目标空间得到第一特征点;
使用计算模型计算所述第一特征点与所述目标空间中的多个第二特征点之间的多个特征度量值,并根据所述多个特征度量值对应的意图类别计算得到第一用户意图;
将所述表情特征输入至预先训练好的表情识别模型中得到表情识别结果,将所述肢体特征输入至预先训练好的肢体识别模型中得到动作识别结果;
根据所述表情识别结果和所述动作识别结果确定第二用户意图;及
根据所述第一用户意图和所述第二用户意图确定用户的目标意图。
2.如权利要求1所述的基于视频图像识别用户意图的方法,其特征在于,所述方法还包括:
获取多个意图类别对应的多个意图文本;
提取所述意图文本的第二文本向量;
将所述第二文本向量编码为第二编码特征;
根据同一个意图类别对应的多个第二编码特征计算得到第一离散度矩阵;
根据多个意图类别对应的多个第二编码特征计算得到第二离散度矩阵;
基于所述第一离散度矩阵和所述第二离散度矩阵构建目标矩阵;
计算所述目标矩阵的多个特征值;及
根据所述目标矩阵及所述多个特征值计算所述目标空间。
3.如权利要求1所述的基于视频图像识别用户意图的方法,其特征在于,所述根据所述多个特征度量值对应的意图类别计算得到第一用户意图包括:
从所述多个特征度量值中筛选大于预设度量阈值的多个目标特征度量值;
确定所述多个目标特征度量值对应的目标意图类别;
计算同一个目标意图类别对应的目标特征度量值的个数;
确定最大个数对应的目标意图类别为所述第一用户意图。
5.如权利要求1所述的基于视频图像识别用户意图的方法,其特征在于,根据所述表情识别结果和所述动作识别结果确定第二用户意图包括:
将获取的表情识别结果与表情与意图关系对照表中的表情信息进行匹配,以确定与所述获取的表情识别结果相对应的意图信息;
将获取的动作识别结果与肢体动作与意图关系对照表中的动作信息进行匹配,以确定与所述获取的动作识别结果相对应的意图信息;
根据所述获取的表情识别结果相对应的意图信息和所述获取的动作识别结果相对应的意图信息作为所述第二用户意图。
6.如权利要求5所述的基于视频图像识别用户意图的方法,其特征在于,根据所述第一用户意图和所述第二用户意图确定用户的目标意图包括:
若所述视频图像中没有对话文本,确定所述用户的目标意图为所述第二用户意图;或者
若所述视频图像中没有表情特征和肢体特征,确定所述用户的目标意图为所述第一用户意图;或者
若所述视频图像中包括对话文本、表情特征和肢体特征,通过设置所述第一用户意图的权重和所述第二用户意图的权重来确定用户的目标意图。
7.如权利要求6所述的基于视频图像识别用户意图的方法,其特征在于,所述方法还包括:
从意图标签知识库中查询与所述目标意图对应的多个话术;
按照预设的优先级拼接所述多个话术得到目标话术;
根据所述目标话术进行下一轮的对话。
8.一种基于视频图像识别用户意图的装置,其特征在于,所述装置包括:
提取模块,用于提取用户的视频图像中的对话文本和用户图像,以及提取所述用户图像中预设位置对应的表情特征和肢体特征;
所述提取模块,还用于提取所述对话文本的第一文本向量,并将所述第一文本向量编码为第一编码特征,将所述第一编码特征映射到目标空间得到第一特征点;
处理模块,用于使用计算模型计算所述第一特征点与所述目标空间中的多个第二特征点之间的多个特征度量值,并根据所述多个特征度量值对应的意图类别计算得到第一用户意图;
所述处理模块,还用于将所述表情特征输入至预先训练好的表情识别模型中得到表情识别结果,将所述肢体特征输入至预先训练好的肢体识别模型中得到动作识别结果;
确定模块,用于根据所述表情识别结果和所述动作识别结果确定第二用户意图;及
所述确定模块,还用于根据所述第一用户意图和所述第二用户意图确定用户的目标意图。
9.一种电子装置,其特征在于,所述电子装置包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现如权利要求1至7中任意一项所述的基于视频图像识别用户意图的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的基于视频图像识别用户意图的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011612579.9A CN112733649B (zh) | 2020-12-30 | 2020-12-30 | 基于视频图像识别用户意图的方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011612579.9A CN112733649B (zh) | 2020-12-30 | 2020-12-30 | 基于视频图像识别用户意图的方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112733649A true CN112733649A (zh) | 2021-04-30 |
CN112733649B CN112733649B (zh) | 2023-06-20 |
Family
ID=75611086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011612579.9A Active CN112733649B (zh) | 2020-12-30 | 2020-12-30 | 基于视频图像识别用户意图的方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112733649B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120281885A1 (en) * | 2011-05-05 | 2012-11-08 | At&T Intellectual Property I, L.P. | System and method for dynamic facial features for speaker recognition |
CN109766759A (zh) * | 2018-12-12 | 2019-05-17 | 成都云天励飞技术有限公司 | 情绪识别方法及相关产品 |
CN109840276A (zh) * | 2019-02-12 | 2019-06-04 | 北京健康有益科技有限公司 | 基于文本意图识别的智能对话方法、装置和存储介质 |
CN110046221A (zh) * | 2019-03-01 | 2019-07-23 | 平安科技(深圳)有限公司 | 一种机器对话方法、装置、计算机设备及存储介质 |
-
2020
- 2020-12-30 CN CN202011612579.9A patent/CN112733649B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120281885A1 (en) * | 2011-05-05 | 2012-11-08 | At&T Intellectual Property I, L.P. | System and method for dynamic facial features for speaker recognition |
CN109766759A (zh) * | 2018-12-12 | 2019-05-17 | 成都云天励飞技术有限公司 | 情绪识别方法及相关产品 |
CN109840276A (zh) * | 2019-02-12 | 2019-06-04 | 北京健康有益科技有限公司 | 基于文本意图识别的智能对话方法、装置和存储介质 |
CN110046221A (zh) * | 2019-03-01 | 2019-07-23 | 平安科技(深圳)有限公司 | 一种机器对话方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112733649B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106683680B (zh) | 说话人识别方法及装置、计算机设备及计算机可读介质 | |
CN112346567B (zh) | 基于ai的虚拟交互模型生成方法、装置及计算机设备 | |
CN108846077B (zh) | 问答文本的语义匹配方法、装置、介质及电子设备 | |
CN110990543A (zh) | 智能对话的生成方法、装置、计算机设备及计算机存储介质 | |
CN109859772A (zh) | 情绪识别方法、装置及计算机可读存储介质 | |
CN114298121B (zh) | 基于多模态的文本生成方法、模型训练方法和装置 | |
CN111694940B (zh) | 一种用户报告的生成方法及终端设备 | |
CN107911643B (zh) | 一种视频通信中展现场景特效的方法和装置 | |
CN111383138B (zh) | 餐饮数据处理方法、装置、计算机设备和存储介质 | |
CN110738998A (zh) | 基于语音的个人信用评估方法、装置、终端及存储介质 | |
CN112837669B (zh) | 语音合成方法、装置及服务器 | |
CN114127849A (zh) | 语音情感识别方法和装置 | |
CN111177307A (zh) | 一种基于语义理解相似度阀值配置的测试方案及系统 | |
CN109947971A (zh) | 图像检索方法、装置、电子设备及存储介质 | |
CN112735371A (zh) | 一种基于文本信息生成说话人视频的方法及装置 | |
CN109688271A (zh) | 联系人信息输入的方法、装置及终端设备 | |
CN113053395A (zh) | 发音纠错学习方法、装置、存储介质及电子设备 | |
CN115687934A (zh) | 意图识别方法、装置、计算机设备及存储介质 | |
CN113887214B (zh) | 基于人工智能的意愿推测方法、及其相关设备 | |
CN114974253A (zh) | 一种基于人物画像的自然语言解释方法、装置及存储介质 | |
CN111462755A (zh) | 信息提示方法、装置、电子设备及介质 | |
CN113220828B (zh) | 意图识别模型处理方法、装置、计算机设备及存储介质 | |
CN111477212A (zh) | 内容识别、模型训练、数据处理方法、系统及设备 | |
CN111522937A (zh) | 话术推荐方法、装置和电子设备 | |
CN112733649B (zh) | 基于视频图像识别用户意图的方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |