CN108920639A - 基于语音交互的上下文获取方法及设备 - Google Patents
基于语音交互的上下文获取方法及设备 Download PDFInfo
- Publication number
- CN108920639A CN108920639A CN201810709792.8A CN201810709792A CN108920639A CN 108920639 A CN108920639 A CN 108920639A CN 201810709792 A CN201810709792 A CN 201810709792A CN 108920639 A CN108920639 A CN 108920639A
- Authority
- CN
- China
- Prior art keywords
- face
- dialogue
- face characteristic
- user
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 53
- 239000000284 extract Substances 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 16
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 4
- 230000005055 memory storage Effects 0.000 claims description 2
- 238000013461 design Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/16—Arrangements for providing special services to substations
- H04L12/18—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
- H04L12/1813—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
- H04L12/1831—Tracking arrangements for later retrieval, e.g. recording contents, participants activities or behavior, network status
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/42221—Conversation recording systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/56—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
- H04M3/568—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
- H04M3/569—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants using the instant speaker's algorithm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/10—Multimedia information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/50—Telephonic communication in combination with video communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/30—Aspects of automatic or semi-automatic exchanges related to audio recordings in general
- H04M2203/301—Management of recordings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/60—Aspects of automatic or semi-automatic exchanges related to security aspects in telephonic communication systems
- H04M2203/6045—Identity confirmation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/60—Aspects of automatic or semi-automatic exchanges related to security aspects in telephonic communication systems
- H04M2203/6054—Biometric subscriber identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/56—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
- H04M3/567—Multimedia conference systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明实施例提供一种基于语音交互的上下文获取方法及设备,该方法包括:获取图像采集装置在本次对话的语音起点采集的场景图像,并提取场景图像中每个用户的人脸特征;若根据每个用户的人脸特征以及人脸数据库,确定存在与第一人脸特征匹配的第二人脸特征,则从人脸数据库中获取第二人脸特征对应的第一用户标识,其中,第一人脸特征为一个用户的人脸特征,第二人脸特征为人脸数据库中存储的处于对话状态的用户的人脸特征;若确定语音数据库中存储有第一用户标识对应的已存对话,则根据本次对话与已存对话确定语音交互的上下文,并在得到本次对话的语音终点后,将本次对话存储至语音数据库中。本实施例可以提高获取语音交互的上下文的准确率。
Description
技术领域
本发明实施例涉及语音交互技术领域,尤其涉及一种基于语音交互的上下文获取方法及设备。
背景技术
随着人工智能技术的发展,智能语音交互产品的研发和使用备受关注。其中,智能语音交互是基于语音输入的一种交互模式,用户可以通过语音来输入自己的请求,该产品可以根据请求的意图,响应相应的内容。
现有技术中,在智能服务机器人的应用场景中,例如:迎宾机器人,警务机器人等,往往存在多个人同时与智能服务机器人交互的场景。在多人与机器人对话时,如果不能识别对话内容的来源,则无法准确的获取对话上下文,从而无法向用户提供准确的服务,造成糟糕的对话体验。目前,在假设同一用户的对话内容中不会有不同主题的内容,且两个用户的对话内容的主题是没有交叠的前提下,通过自然语言理解来根据对话含义来进行身份识别,以获取同一用户的对话上下文。
然而,在实际应用时基于自然语言理解的假设并不总是成立的,导致获取语音对话上下文的错误率较高。
发明内容
本发明实施例提供一种基于语音交互的上下文获取方法及设备,以克服获取语音对话上下文的错误率较高的问题。
第一方面,本发明实施例提供一种基于语音交互的上下文获取方法,包括:
获取图像采集装置在本次对话的语音起点采集的场景图像,并提取所述场景图像中每个用户的人脸特征;
若根据每个用户的人脸特征以及人脸数据库,确定存在与第一人脸特征匹配的第二人脸特征,则从所述人脸数据库中获取所述第二人脸特征对应的第一用户标识,其中,所述第一人脸特征为一个用户的人脸特征,所述第二人脸特征为人脸数据库中存储的处于对话状态的用户的人脸特征;
若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并在得到所述本次对话的语音终点后,将所述本次对话存储至所述语音数据库中。
在一种可能的设计中,若根据每个用户的人脸特征以及人脸数据库,确定不存在与第一人脸特征匹配的第二人脸特征,所述方法还包括:
对所述每个用户的人脸特征在内的参数进行分析,获取处于对话状态的目标用户,并生成所述目标用户的第二用户标识;
在检测到语音终点时,将本次对话与第二用户标识关联存储到语音数据库中,以及将所述目标用户的人脸特征与所述第二用户标识关联存储到人脸数据库中。
在一种可能的设计中,所述根据所述本次对话与所述已存对话确定语音交互的上下文,包括:
根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。
在一种可能的设计中,若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,所述方法还包括:
在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。
在一种可能的设计中,所述方法还包括:
将所述人脸数据库中在预设时间段内未匹配的第三用户标识以及对应的人脸特征删除。
在一种可能的设计中,所述提取所述场景图像中每个用户的人脸特征,包括:
对所述场景图像进行抠图处理,得到每个人脸的人脸图片;
将多个所述人脸图片依次输入至预设的人脸特征模型中,获取所述人脸特征模型依次输出的每个用户的人脸特征。
在一种可能的设计中,所述将所述多个人脸区域依次输入至预设的人脸特征模型中之前,所述方法还包括:
获取人脸训练样本,所述人脸训练样本包括人脸图片和标签;
根据所述人脸训练样本,得到训练后的初始的人脸特征模型;所述初始的人脸特征模型包括输入层、特征层、分类层以及输出层;
将所述初始的人脸特征模型中的分类层删除,得到所述预设的人脸特征模型。
在一种可能的设计中,所述人脸特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。
第二方面,本发明实施例提供一种基于语音交互的上下文获取设备,包括:
提取模块,用于获取图像采集装置在本次对话的语音起点采集的场景图像,并提取所述场景图像中每个用户的人脸特征;
匹配模块,用于若根据每个用户的人脸特征以及人脸数据库,确定存在与第一人脸特征匹配的第二人脸特征,则从所述人脸数据库中获取所述第二人脸特征对应的第一用户标识,其中,所述第一人脸特征为一个用户的人脸特征,所述第二人脸特征为人脸数据库中存储的处于对话状态的用户的人脸特征;
获取模块,用于若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并在得到所述本次对话的语音终点后,将所述本次对话存储至所述语音数据库中。
在一种可能的设计中,所述匹配模块还用于,
若根据每个用户的人脸特征以及人脸数据库,确定不存在与第一人脸特征匹配的第二人脸特征,对所述每个用户的人脸特征在内的参数进行分析,获取处于对话状态的目标用户,并生成所述目标用户的第二用户标识;
在检测到语音终点时,将本次对话与第二用户标识关联存储到语音数据库中,以及将所述目标用户的人脸特征与所述第二用户标识关联存储到人脸数据库中。
在一种可能的设计中,所述获取模块具体用于:
根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。
在一种可能的设计中,所述获取模块还用于:
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。
在一种可能的设计中,所述匹配模块还用于:
将所述人脸数据库中在预设时间段内未匹配的第三用户标识以及对应的人脸特征删除。
在一种可能的设计中,所述提取模块具体用于:
对所述场景图像进行抠图处理,得到每个人脸的人脸图片;
将多个所述人脸图片依次输入至预设的人脸特征模型中,获取所述人脸特征模型依次输出的每个用户的人脸特征。
在一种可能的设计中,还包括:建模模块;
所述建模模块用于在将所述多个人脸区域依次输入至预设的人脸特征模型中之前,
获取人脸训练样本,所述人脸训练样本包括人脸图片和标签;
根据所述人脸训练样本,得到训练后的初始的人脸特征模型;所述初始的人脸特征模型包括输入层、特征层、分类层以及输出层;
将所述初始的人脸特征模型中的分类层删除,得到所述预设的人脸特征模型。
在一种可能的设计中,所述人脸特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。
第三方面,本发明实施例提供一种基于语音交互的上下文获取设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第一方面或第一方面的各种可能的设计所述的基于语音交互的上下文获取方法。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面或第一方面各种可能的设计所述的基于语音交互的上下文获取方法。
本实施例提供的基于语音交互的上下文获取方法及设备,通过获取图像采集装置在本次对话的语音起点采集的场景图像,并提取场景图像中每个用户的人脸特征;若根据每个用户的人脸特征以及人脸数据库,确定存在与第一人脸特征匹配的第二人脸特征,则从人脸数据库中获取第二人脸特征对应的第一用户标识,其中,第一人脸特征为一个用户的人脸特征,第二人脸特征为人脸数据库中存储的处于对话状态的用户的人脸特征,通过人脸识别实现了准确的对用户进行身份识别;若确定语音数据库中存储有第一用户标识对应的已存对话,则根据本次对话与已存对话确定语音交互的上下文,并在得到本次对话的语音终点后,将本次对话存储至语音数据库中,通过用户标识能够获取与本次对话属于同一用户的已存对话,根据同一用户的对话来获取语音交互的上下文,避免了将不同用户的对话作为上下文,提高了获取上下文的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于语音交互的上下文获取方法的系统架构图;
图2为本发明实施例提供的基于语音交互的上下文获取方法的流程图一;
图3为本发明实施例提供的基于语音交互的上下文获取方法的流程图二;
图4为本发明实施例提供的人脸特征模型的结构示意图;
图5为本发明实施例提供的基于语音交互的上下文获取设备的结构示意图;
图6为本发明实施例提供的基于语音交互的上下文获取设备的硬件结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的基于语音交互的上下文获取方法的系统架构图。如图1所示,该系统包括终端110和服务器120。该终端110可以为故事机、手机、平板、车载终端、迎宾机器人、警务机器人等具有语音交互功能的设备。
本实施例对终端110的实现方式不做特别限制,只要该终端110能够与用户进行语音交互即可。在本实施例中,该终端110还包括图像采集装置,该图像采集装置可以采集与终端110进行对话的用户的图像。该图像采集装置可以为照相机、摄像机等。该服务器120可以提供各种线上服务,能够针对用户的问答提供相应的问答结果。
对于多个用户与终端110进行对话的过程,本发明实施例也同样适用。其中,本实施例中所涉及的多个用户与终端110进行对话的过程可以为:当用户A与终端110进行对话时,在用户A与终端110的对话间隙中,用户B又插进来与终端110进行对话,此时,就存在用户A与用户B交替与终端110进行对话,由此形成了多人对话场景。
本发明实施例基于声纹来对用户进行身份识别,能够获取用户的上下文,例如能够在用户A与用户B同时于终端的交互过程中,获取用户A的上下文以及用户B的上下文,从而降低了获取上下文的错误率。在获取到同一用户语音交互的上下文之后,结合上下文来向用户反馈问答结果,提高用户体验。
本发明实施例的执行主体可以为上述的服务器,该终端在获取了用户输入的对话后,向服务器发送该对话,由服务器返回该对话的问答结果。本领域技术人员可以理解,当终端的功能足够强大时,也可以由终端在获取到对话后,自行反馈问答结果。下面以服务器作为执行主体,来详细说明本发明实施例提供的基于语音交互的上下文获取方法。
图2为本发明实施例提供的基于语音交互的上下文获取方法的流程图一,如图2所示,该方法包括:
S201、获取图像采集装置在本次对话的语音起点采集的场景图像,并提取所述场景图像中每个用户的人脸特征。
随着人机交互技术的发展,语音识别技术显示出其重要性。在语音识别系统中,语音端点检测技术是非常重要的一项技术,通常也称为语音活动性检测技术(voiceactivity detection,VAD)。语音端点检测是指在连续声音信号中找出语音部分的语音起点和语音终点。对于语音活动性检测技术的具体实现方式,本实施例此处不做特别限制。其中,该语音活动性检测技术的执行者可以为上述的终端,也可以为终端向服务器实时发送语音,有服务器来执行。
本实施例中的本次对话和已存对话是指用户向终端输入的一条连续的语音,即一句话。在描述进行对话时,该“对话”可以理解为执行的动作。本实施例的“对话”在一些场景中还可以表示为名词。对于“对话”的词性,可根据语言描述场景来确定。
当检测到本次对话的语音起点时,获取图像采集装置在语音起点采集的场景图像。即确定有用户与终端进行语音交互向终端说话时,获取当前场景下采集的场景图像。若有多个人面向该终端,则由于存在对话,所以当前场景图像中存在面对该终端麦克风,且口型为说话口型的用户,同时也可能存在相对于终端的麦克风侧向或其它朝向的用户。
在得到该场景图像后,提取场景图像中每个用户的人脸特征,例如可以通过人脸特征模型来提取人脸特征。
在提取过程中,以每个用户作为单位,提取针对该用户的人脸特征。具体地,对场景图像进行抠图处理,得到每个人脸的人脸图片;将多个人脸图片依次输入至预设的人脸特征模型中,获取人脸特征模型依次输出的每个用户的人脸特征。
该人脸特征可以为多维特征,例如可以为多维向量,每个维度的向量表示一个特征,例如眉毛特征、眼睛特征、鼻子特征等,本实施例此处不再一一赘述。
在本实施例中,终端还可以根据每个服务器的负载,对服务器进行调度,即由负载较轻的服务器来执行本实施例的步骤。
S202、根据每个用户的人脸特征以及人脸数据库,判断是否存在与第一人脸特征匹配的第二人脸特征,第一人脸特征为一个用户的人脸特征,第二人脸特征为人脸数据库中存储的处于对话状态的用户的人脸特征,若是,则执行S203,若否,则执行S207;
S203、从人脸数据库中获取第二人脸特征对应的第一用户标识。
在得到每个用户的人脸特征后,将每个用户的人脸特征与人脸数据库中的人脸特征进行匹配,判断是否有一个用户的第一人脸特征可以与人脸数据库中的第二人脸特征匹配。
本领域技术人员可以理解,当有一个用户正向面向麦克风时,其它用户则无法正向面对麦克风,因此采集的场景图像中与麦克风处于对话状态的用户为一个,因此,可以判断是否存在一个用户的第一人脸特征与第二人脸特征匹配。本实施例中的匹配可以理解为在人脸特征的相似度大于预设值的前提下,相似度最高的两个人脸特征,该相似度可以为两个人脸特征的余弦相似度。
在存在一个用户的人脸特征能够与人脸数据库中的处于对话状态(张嘴说话状态)的第二人脸特征进行匹配时,从人脸数据库中获取第二人脸特征对应的第一用户标识,然后依次执行S204、S205以及S206。其中,人脸数据库中关联存储有处于对话状态的人脸特征和对应的用户标识。
在不存在一个用户的人脸特征能够与人脸数据库中的处于对话状态(张嘴说话状态)的第二人脸特征进行匹配时,则依次执行S207和S208。
S204、判断语音数据库中是否存储有第一用户标识对应的已存对话,若是,则执行S205,若否,则执行S206;
S205、根据本次对话与已存对话确定语音交互的上下文,并在得到本次对话的语音终点后,将本次对话存储至语音数据库中;
S206、将本次对话与第一用户标识关联存储到语音数据库中。
在存在一个用户的人脸特征能够与人脸数据库中的处于对话状态(张嘴说话状态)的第二人脸特征进行匹配时,判断语音数据库中是否存储有第一用户标识对应的已存对话。其中语音数据库中关联存储有用户标识与对应的对话。
若语音数据库中存储有第一用户标识对应的已存对话,则说明本次对话并不是预设时间段内用户向终端输入的第一句语音,则根据本次对话与已存对话确定语音交互的上下文,即在该已存对话中确定本次对话的上下文。此时,在有限数量的对话中,可以结合自然语言理解来获取与本次对话相关的已存对话,即获取上下文。在得到本次对话的语音终点后,将本次对话存储至语音数据库中,并建立本次对话与语音数据库中第一用户标识的关联关系。
若语音数据库中没有存储第一用户标识对应的已存对话,则说明本次对话是用户在预设时间段内向终端输入的第一句语音,该预设时间段为当前时刻之前的预设时间段,例如当前时刻之前的半小时。此时,认为本次对话并不具备上下文,则将本次对话与第一用户标识关联存储到语音数据库中。
可选地,在本实施例中,还可以将语音数据库和人脸数据库合为一个数据库,即在一个数据库中关联存储有用户标识、对应的人脸特征以及用户对话。可选地,还可以在数据库中直接关联存储人脸特征以及对应的用户对话。
此时,若根据每个用户的人脸特征以及数据库,确定存在与第一人脸特征匹配的第二人脸特征,则从数据库中获取第二人脸特征对应的已存对话,根据本次对话与已存对话确定语音交互的上下文,并在得到本次对话的语音终点后,将本次对话存储至语音数据库中。
在本实施例中,通过将人脸数据库和语音数据库单独设置,便于人脸数据库和语音数据库的单独存储和维护。
S207、对每个用户的人脸特征在内的参数进行分析,获取处于对话状态的目标用户,并生成目标用户的第二用户标识。
S208、在检测到语音终点时,将目标用户的人脸特征与第二用户标识关联存储到人脸数据库中,并将本次对话与第二用户标识关联存储到语音数据库中。
在不存在一个用户的人脸特征能够与人脸数据库中的处于对话状态(张嘴说话状态)的第二人脸特征进行匹配时,则说明当前的用户在此之前从未与终端进行过语音交互,此时,对每个用户的人脸特征在内的参数进行分析,得到处于对话状态的目标用户,生成该目标用户的第二用户标识,该用户标识可以为数字、字母等或其组合。再例如,还可以通过哈希算法来生成目标用户的用户标识。本实施例对用户标识的实现方式不做特别限制。
由此,在检测到语音终点时,将目标用户的人脸特征与第二用户标识关联存储到人脸数据库中,并将本次对话与第二用户标识关联存储到语音数据库中,以便该用户再次与终端进行语音交互时,能够基于人脸数据库和语音数据库中的内容在已存对话中获取上下文。
本实施例提供的基于语音交互的上下文获取方法,通过获取图像采集装置在本次对话的语音起点采集的场景图像,并提取场景图像中每个用户的人脸特征;若根据每个用户的人脸特征以及人脸数据库,确定存在与第一人脸特征匹配的第二人脸特征,则从人脸数据库中获取第二人脸特征对应的第一用户标识,其中,第一人脸特征为一个用户的人脸特征,第二人脸特征为人脸数据库中存储的处于对话状态的用户的人脸特征,通过人脸识别实现了准确的对用户进行身份识别;若确定语音数据库中存储有第一用户标识对应的已存对话,则根据本次对话与已存对话确定语音交互的上下文,并在得到本次对话的语音终点后,将本次对话存储至语音数据库中,通过用户标识能够获取与本次对话属于同一用户的已存对话,根据同一用户的对话来获取语音交互的上下文,避免了将不同用户的对话作为上下文,提高了获取上下文的准确率。
下面来说明确定语音交互的上下文的实现方式。图3为本发明实施例提供的基于语音交互的上下文获取方法的流程图二。如图3所示,该方法包括:
S301、根据第一用户标识从语音数据库中获取第一用户标识对应的上一对话的语音起点和语音终点;
S302、判断上一对话的语音终点与本次对话的语音起点之间的时间间隔是否小于预设间隔,若是,则执行S303,若否,则执行S304;
S303、根据本次对话与已存对话确定语音交互的上下文;
S304、在语音数据库中删除关联存储的第一用户标识和对应的已存对话。
在具体实现过程中,语音数据库中存储有用户标识以及该用户标识对应的每句话,即该用户标识与用户的至少一个对话关联存储。其中,每个对话在存储时,会对应存储该对话的语音起点的时间和语音终点的时间。
在根据目标用户的人脸特征获取到第一用户标识之后,根据第一用户标识从语音数据库中获取第一用户标识对应的上一对话的语音起点和语音终点。
然后根据上一对话的语音终点的发生时间和本次对话的语音起点的发生时间,获取上一对话的语音终点与本次对话的语音起点之间的时间间隔。
若该时间间隔小于预设间隔,则说明上一次对话与本次对话为上下文对话的可能性较高,例如该预设间隔可以为10分钟、30分钟等,本实施例对该预设间隔的实现方式不做特别限制。
若该时间间隔大于或等于预设间隔,则说明该对话为用户针对一主题的上一次对话,并不能算作本次上下文对话。由此,在语音数据库中删除关联存储的第一用户标识和对应的已存对话,本次对话并不存在上下文。
可选地,在语音数据库中删除关联存储的第一用户标识和对应的已存对话时,还可以在人脸数据库中删除关联存储的第一用户标识和对应的人脸特征。
可选地,二者也可以不同步删除,可以将人脸数据库中在预设时间段内未匹配的第三用户标识以及对应的人脸特征删除。通过该删除方式,可以对关联存储的用户标识和人脸特征进行批量删除,提高了删除效率。
本领域技术人员可以理解,在每获取一个用户的对话时,都会进行上述的操作,从而在语音数据库中存储的每个用户的多个对话都是时间间隔小于预设间隔的对话。因此,基于该用户的所有的已存对话和本次对话来获取本次对话的上下文。例如,可以该用户的本次对话以及所有的已存对话作为语音交互的上下文,也可以针对同一用户的对话,基于自然语言理解,在所有已存对话中获取本次对话的上下文。
在本实施例中,通过判断上一对话的语音终点与本次对话的语音起点之间的时间间隔是否小于预设间隔,能够更加准确的判断本次对话的上下文,提高了上下文获取的准确率。
在上述的实施例中,本发明实施例通过人脸特征模型来获取每个用户的人脸特征。下面采用详细的实施例来说明构建人脸特征模型的过程。
图4为本发明实施例提供的人脸特征模型的结构示意图。如图4所示,该人脸特征模型可以采用深度卷积神经网络(Deep Convolutional Neural Networks,Deep CNN)。该模型包括输入层、特征层、分类层以及输出层。可选地,该特征层包括卷积层、池化层、全连接层。其中,在特征层中可以多个交替的卷积层和池化层。
在具体实现过程中,对于不同的使用场景,基于该人脸特征模型,可以设计不同深度、不同数量神经元、不同卷积池化组织方式构成的深度神经网络模型。
在训练该模型时,获取人脸训练样本,该人脸训练样本包括人脸图片和标签。其中,标签为预先标定的人脸图片中的各特征的分类结果,该标签可以为矩阵形式的向量。
将该人脸图片从输入层输入,输入实际为矩阵组成的向量,然后卷积层利用权值不同的卷积核对原始图像或特征图(feature map)进行扫描卷积,从中提取各种意义的特征,并输出至特征图中,池化层夹在连续的卷积层中间,用于压缩数据和参数的量,减小过拟合,即对特征图进行降维操作,保留特征图中的主要特征。两层之间所有神经元都有权重连接,通常全连接层在卷积神经网络尾部。最后特征经过分类层之后输出结果。
当模型的输出与标签之间的误差值小于预先设定的符合业务要求的阈值时,停止训练。利用这种具有卷积、池化操作的深度神经网络模型,可以对图像的变形、模糊、噪声等具有较高的鲁棒性,对于分类任务具有更高的可泛化性。
通过上述的模型训练过程,得到了初始的人脸特征模型,将该初始的人脸特征模型中的分类层删除,得到该预设的人脸特征模型,由于删除了分类层,所以在使用该预设的人脸特征模型时,在从场景图像中抠图得到人脸图片时,将该人脸图片输入至人脸特征模型中,该人脸特征模型能够直接输出人脸特征,而不是输出分类结果。
本实施例通过使用深度卷积神经网络模型提取人脸特征,进行身份识别,能够准确的区分对话的来源,找到每个人的对话上下文,提高多人场景下的对话体验。
图5为本发明实施例提供的基于语音交互的上下文获取设备的结构示意图。如图5所示,该基于语音交互的上下文获取设备50包括:提取模块501、匹配模块502以及获取模块503。可选地,还包括建模模块504。
提取模块501,用于获取图像采集装置在本次对话的语音起点采集的场景图像,并提取所述场景图像中每个用户的人脸特征;
匹配模块502,用于若根据每个用户的人脸特征以及人脸数据库,确定存在与第一人脸特征匹配的第二人脸特征,则从所述人脸数据库中获取所述第二人脸特征对应的第一用户标识,其中,所述第一人脸特征为一个用户的人脸特征,所述第二人脸特征为人脸数据库中存储的处于对话状态的用户的人脸特征;
获取模块503,用于若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并在得到所述本次对话的语音终点后,将所述本次对话存储至所述语音数据库中。
可选地,所述匹配模块502还用于,
若根据每个用户的人脸特征以及人脸数据库,确定不存在与第一人脸特征匹配的第二人脸特征,对所述每个用户的人脸特征在内的参数进行分析,获取处于对话状态的目标用户,并生成所述目标用户的第二用户标识;
在检测到语音终点时,将本次对话与第二用户标识关联存储到语音数据库中,以及将所述目标用户的人脸特征与所述第二用户标识关联存储到人脸数据库中。
可选地,所述获取模块503具体用于:
根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。
可选地,所述获取模块503还用于:
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。
可选地,所述匹配模块502还用于:
将所述人脸数据库中在预设时间段内未匹配的第三用户标识以及对应的人脸特征删除。
可选地,所述提取模块501具体用于:
对所述场景图像进行抠图处理,得到每个人脸的人脸图片;
将多个所述人脸图片依次输入至预设的人脸特征模型中,获取所述人脸特征模型依次输出的每个用户的人脸特征。
所述建模模块504用于在将所述多个人脸区域依次输入至预设的人脸特征模型中之前,获取人脸训练样本,所述人脸训练样本包括人脸图片和标签;
根据所述人脸训练样本,得到训练后的初始的人脸特征模型;所述初始的人脸特征模型包括输入层、特征层、分类层以及输出层;
将所述初始的人脸特征模型中的分类层删除,得到所述预设的人脸特征模型。
可选地,所述人脸特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。
本实施例提供的基于语音交互的上下文获取设备,其实现原理和技术效果与上述的方法实施例类似,本实施例此处不再赘述。
图6为本发明实施例提供的基于语音交互的上下文获取设备的硬件结构示意图。如图6所示,该基于语音交互的上下文获取设备60包括:至少一个处理器601和存储器602。可选地,该语音交互的上下文获取设备60还包括通信部件603。其中,处理器601、存储器602以及通信部件603通过总线604连接。
在具体实现过程中,至少一个处理器601执行所述存储器602存储的计算机执行指令,使得至少一个处理器601执行如上的基于语音交互的上下文获取方法。
通信部件603可以与其它设备进行数据交互。
处理器601的具体实现过程可参见上述方法实施例,其实现原理和技术效果类似,本实施例此处不再赘述。
在上述的6所示的实施例中,应理解,处理器可以是中央处理单元(英文:CentralProcessing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:DigitalSignal Processor,简称:DSP)、专用集成电路(英文:Application Specific IntegratedCircuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器可能包含高速RAM存储器,也可能还包括非易失性存储NVM,例如至少一个磁盘存储器。
总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral Component,PCI)总线或扩展工业标准体系结构(ExtendedIndustry Standard Architecture,EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,本申请附图中的总线并不限定仅有一根总线或一种类型的总线。
本申请还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上所述的基于语音交互的上下文获取方法。
上述的计算机可读存储介质,上述可读存储介质可以是由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。可读存储介质可以是通用或专用计算机能够存取的任何可用介质。
一种示例性的可读存储介质耦合至处理器,从而使处理器能够从该可读存储介质读取信息,且可向该可读存储介质写入信息。当然,可读存储介质也可以是处理器的组成部分。处理器和可读存储介质可以位于专用集成电路(Application Specific IntegratedCircuits,简称:ASIC)中。当然,处理器和可读存储介质也可以作为分立组件存在于设备中。
所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (18)
1.一种基于语音交互的上下文获取方法,其特征在于,包括:
获取图像采集装置在本次对话的语音起点采集的场景图像,并提取所述场景图像中每个用户的人脸特征;
若根据每个用户的人脸特征以及人脸数据库,确定存在与第一人脸特征匹配的第二人脸特征,则从所述人脸数据库中获取所述第二人脸特征对应的第一用户标识,其中,所述第一人脸特征为一个用户的人脸特征,所述第二人脸特征为人脸数据库中存储的处于对话状态的用户的人脸特征;
若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并在得到所述本次对话的语音终点后,将所述本次对话存储至所述语音数据库中。
2.根据权利要求1所述的方法,其特征在于,若根据每个用户的人脸特征以及人脸数据库,确定不存在与第一人脸特征匹配的第二人脸特征,所述方法还包括:
对所述每个用户的人脸特征在内的参数进行分析,获取处于对话状态的目标用户,并生成所述目标用户的第二用户标识;
在检测到语音终点时,将本次对话与第二用户标识关联存储到语音数据库中,以及将所述目标用户的人脸特征与所述第二用户标识关联存储到人脸数据库中。
3.根据权利要求1所述的方法,其特征在于,所述根据所述本次对话与所述已存对话确定语音交互的上下文,包括:
根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。
4.根据权利要求3所述的方法,其特征在于,若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,所述方法还包括:
在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述人脸数据库中在预设时间段内未匹配的第三用户标识以及对应的人脸特征删除。
6.根据权利要求1所述的方法,其特征在于,所述提取所述场景图像中每个用户的人脸特征,包括:
对所述场景图像进行抠图处理,得到每个人脸的人脸图片;
将多个所述人脸图片依次输入至预设的人脸特征模型中,获取所述人脸特征模型依次输出的每个用户的人脸特征。
7.根据权利要求6所述的方法,其特征在于,所述将所述多个人脸区域依次输入至预设的人脸特征模型中之前,所述方法还包括:
获取人脸训练样本,所述人脸训练样本包括人脸图片和标签;
根据所述人脸训练样本,得到训练后的初始的人脸特征模型;所述初始的人脸特征模型包括输入层、特征层、分类层以及输出层;
将所述初始的人脸特征模型中的分类层删除,得到所述预设的人脸特征模型。
8.根据权利要求7所述的方法,其特征在于,所述人脸特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。
9.一种基于语音交互的上下文获取设备,其特征在于,包括:
提取模块,用于获取图像采集装置在本次对话的语音起点采集的场景图像,并提取所述场景图像中每个用户的人脸特征;
匹配模块,用于若根据每个用户的人脸特征以及人脸数据库,确定存在与第一人脸特征匹配的第二人脸特征,则从所述人脸数据库中获取所述第二人脸特征对应的第一用户标识,其中,所述第一人脸特征为一个用户的人脸特征,所述第二人脸特征为人脸数据库中存储的处于对话状态的用户的人脸特征;
获取模块,用于若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并在得到所述本次对话的语音终点后,将所述本次对话存储至所述语音数据库中。
10.根据权利要求9所述的设备,其特征在于,所述匹配模块还用于,
若根据每个用户的人脸特征以及人脸数据库,确定不存在与第一人脸特征匹配的第二人脸特征,对所述每个用户的人脸特征在内的参数进行分析,获取处于对话状态的目标用户,并生成所述目标用户的第二用户标识;
在检测到语音终点时,将本次对话与第二用户标识关联存储到语音数据库中,以及将所述目标用户的人脸特征与所述第二用户标识关联存储到人脸数据库中。
11.根据权利要求9所述的设备,其特征在于,所述获取模块具体用于:
根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。
12.根据权利要求11所述的设备,其特征在于,所述获取模块还用于:
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。
13.根据权利要求9所述的设备,其特征在于,所述匹配模块还用于:
将所述人脸数据库中在预设时间段内未匹配的第三用户标识以及对应的人脸特征删除。
14.根据权利要求9所述的设备,其特征在于,所述提取模块具体用于:
对所述场景图像进行抠图处理,得到每个人脸的人脸图片;
将多个所述人脸图片依次输入至预设的人脸特征模型中,获取所述人脸特征模型依次输出的每个用户的人脸特征。
15.根据权利要求14所述的设备,其特征在于,还包括:建模模块;
所述建模模块用于在将所述多个人脸区域依次输入至预设的人脸特征模型中之前,
获取人脸训练样本,所述人脸训练样本包括人脸图片和标签;
根据所述人脸训练样本,得到训练后的初始的人脸特征模型;所述初始的人脸特征模型包括输入层、特征层、分类层以及输出层;
将所述初始的人脸特征模型中的分类层删除,得到所述预设的人脸特征模型。
16.根据权利要求15所述的设备,其特征在于,所述人脸特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。
17.一种基于语音交互的上下文获取设备,其特征在于,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求1至8任一项所述的基于语音交互的上下文获取方法。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求1至8任一项所述的基于语音交互的上下文获取方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810709792.8A CN108920639B (zh) | 2018-07-02 | 2018-07-02 | 基于语音交互的上下文获取方法及设备 |
JP2019563817A JP6968908B2 (ja) | 2018-07-02 | 2019-05-16 | コンテキスト取得方法及びコンテキスト取得デバイス |
KR1020197034483A KR20200004826A (ko) | 2018-07-02 | 2019-05-16 | 음성 대화 기반 콘텍스트 획득 방법 및 기기 |
PCT/CN2019/087203 WO2020007129A1 (zh) | 2018-07-02 | 2019-05-16 | 基于语音交互的上下文获取方法及设备 |
EP19802029.9A EP3617946B1 (en) | 2018-07-02 | 2019-05-16 | Context acquisition method and device based on voice interaction |
US16/936,967 US20210012777A1 (en) | 2018-07-02 | 2020-07-23 | Context acquiring method and device based on voice interaction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810709792.8A CN108920639B (zh) | 2018-07-02 | 2018-07-02 | 基于语音交互的上下文获取方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108920639A true CN108920639A (zh) | 2018-11-30 |
CN108920639B CN108920639B (zh) | 2022-01-18 |
Family
ID=64424805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810709792.8A Active CN108920639B (zh) | 2018-07-02 | 2018-07-02 | 基于语音交互的上下文获取方法及设备 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210012777A1 (zh) |
EP (1) | EP3617946B1 (zh) |
JP (1) | JP6968908B2 (zh) |
KR (1) | KR20200004826A (zh) |
CN (1) | CN108920639B (zh) |
WO (1) | WO2020007129A1 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109462546A (zh) * | 2018-12-28 | 2019-03-12 | 苏州思必驰信息科技有限公司 | 一种语音对话历史消息记录方法、装置及系统 |
CN109559761A (zh) * | 2018-12-21 | 2019-04-02 | 广东工业大学 | 一种基于深度语音特征的脑卒中风险预测方法 |
CN110223718A (zh) * | 2019-06-18 | 2019-09-10 | 联想(北京)有限公司 | 一种数据处理方法、装置及存储介质 |
WO2020007129A1 (zh) * | 2018-07-02 | 2020-01-09 | 北京百度网讯科技有限公司 | 基于语音交互的上下文获取方法及设备 |
CN110825765A (zh) * | 2019-10-23 | 2020-02-21 | 中国建设银行股份有限公司 | 一种人脸识别的方法和装置 |
CN111475206A (zh) * | 2019-01-04 | 2020-07-31 | 优奈柯恩(北京)科技有限公司 | 用于唤醒可穿戴设备的方法及装置 |
CN112598840A (zh) * | 2020-12-16 | 2021-04-02 | 广州云从鼎望科技有限公司 | 基于人脸识别和语音交互的通行设备控制方法、装置、机器可读介质及设备 |
CN118072376A (zh) * | 2024-04-18 | 2024-05-24 | 三峡高科信息技术有限责任公司 | 安全交接文档的生成方法、装置、存储介质及计算机设备 |
CN118093835A (zh) * | 2024-04-23 | 2024-05-28 | 国网山东省电力公司滨州市滨城区供电公司 | 基于大语言模型云服务的供电服务问答方法、系统及介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10553203B2 (en) | 2017-11-09 | 2020-02-04 | International Business Machines Corporation | Training data optimization for voice enablement of applications |
US10565982B2 (en) | 2017-11-09 | 2020-02-18 | International Business Machines Corporation | Training data optimization in a service computing system for voice enablement of applications |
CN110210307B (zh) * | 2019-04-30 | 2023-11-28 | 中国银联股份有限公司 | 人脸样本库部署方法、基于人脸识别业务处理方法及装置 |
CN114356275B (zh) * | 2021-12-06 | 2023-12-29 | 上海小度技术有限公司 | 交互控制方法、装置、智能语音设备及存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1134691A2 (en) * | 2000-03-16 | 2001-09-19 | Kabushiki Kaisha Toshiba | Image processing apparatus and method for extracting feature of object |
CN1633670A (zh) * | 2002-02-14 | 2005-06-29 | 皇家飞利浦电子股份有限公司 | 采用视频-语音匹配进行人员认证的方法和系统 |
US20130021459A1 (en) * | 2011-07-18 | 2013-01-24 | At&T Intellectual Property I, L.P. | System and method for enhancing speech activity detection using facial feature detection |
US20160231890A1 (en) * | 2011-07-26 | 2016-08-11 | Sony Corporation | Information processing apparatus and phase output method for determining phrases based on an image |
WO2016173326A1 (zh) * | 2015-04-30 | 2016-11-03 | 北京贝虎机器人技术有限公司 | 基于主题的交互系统及方法 |
CN106782563A (zh) * | 2016-12-28 | 2017-05-31 | 上海百芝龙网络科技有限公司 | 一种智能家居语音交互系统 |
CN107086041A (zh) * | 2017-03-27 | 2017-08-22 | 竹间智能科技(上海)有限公司 | 基于加密计算的语音情感分析方法及装置 |
CN107209781A (zh) * | 2015-01-21 | 2017-09-26 | 微软技术许可有限责任公司 | 使用自然语言的上下文搜索 |
CN107799126A (zh) * | 2017-10-16 | 2018-03-13 | 深圳狗尾草智能科技有限公司 | 基于有监督机器学习的语音端点检测方法及装置 |
CN107808145A (zh) * | 2017-11-13 | 2018-03-16 | 河南大学 | 基于多模态智能机器人的交互身份鉴别与跟踪方法及系统 |
CN108154153A (zh) * | 2016-12-02 | 2018-06-12 | 北京市商汤科技开发有限公司 | 场景分析方法和系统、电子设备 |
CN108172225A (zh) * | 2017-12-27 | 2018-06-15 | 浪潮金融信息技术有限公司 | 语音交互方法及机器人、计算机可读存储介质、终端 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9053750B2 (en) * | 2011-06-17 | 2015-06-09 | At&T Intellectual Property I, L.P. | Speaker association with a visual representation of spoken content |
US9214157B2 (en) * | 2011-12-06 | 2015-12-15 | At&T Intellectual Property I, L.P. | System and method for machine-mediated human-human conversation |
TWI526879B (zh) * | 2015-01-30 | 2016-03-21 | 原相科技股份有限公司 | 互動系統、遙控器及其運作方法 |
WO2016201589A1 (en) * | 2015-06-17 | 2016-12-22 | Intel Corporation | Computing apparatus and method with persistent memory |
CN104951077A (zh) * | 2015-06-24 | 2015-09-30 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法、装置和终端设备 |
KR20170000748A (ko) * | 2015-06-24 | 2017-01-03 | 삼성전자주식회사 | 얼굴 인식 방법 및 장치 |
EP3312762B1 (en) * | 2016-10-18 | 2023-03-01 | Axis AB | Method and system for tracking an object in a defined area |
CN106782545B (zh) * | 2016-12-16 | 2019-07-16 | 广州视源电子科技股份有限公司 | 一种将音视频数据转化成文字记录的系统和方法 |
CN106683680B (zh) * | 2017-03-10 | 2022-03-25 | 百度在线网络技术(北京)有限公司 | 说话人识别方法及装置、计算机设备及计算机可读介质 |
CN110309691B (zh) * | 2018-03-27 | 2022-12-27 | 腾讯科技(深圳)有限公司 | 一种人脸识别方法、装置、服务器及存储介质 |
CN108920640B (zh) * | 2018-07-02 | 2020-12-22 | 北京百度网讯科技有限公司 | 基于语音交互的上下文获取方法及设备 |
CN108920639B (zh) * | 2018-07-02 | 2022-01-18 | 北京百度网讯科技有限公司 | 基于语音交互的上下文获取方法及设备 |
-
2018
- 2018-07-02 CN CN201810709792.8A patent/CN108920639B/zh active Active
-
2019
- 2019-05-16 WO PCT/CN2019/087203 patent/WO2020007129A1/zh unknown
- 2019-05-16 JP JP2019563817A patent/JP6968908B2/ja active Active
- 2019-05-16 KR KR1020197034483A patent/KR20200004826A/ko not_active IP Right Cessation
- 2019-05-16 EP EP19802029.9A patent/EP3617946B1/en active Active
-
2020
- 2020-07-23 US US16/936,967 patent/US20210012777A1/en not_active Abandoned
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1134691A2 (en) * | 2000-03-16 | 2001-09-19 | Kabushiki Kaisha Toshiba | Image processing apparatus and method for extracting feature of object |
CN1633670A (zh) * | 2002-02-14 | 2005-06-29 | 皇家飞利浦电子股份有限公司 | 采用视频-语音匹配进行人员认证的方法和系统 |
US20130021459A1 (en) * | 2011-07-18 | 2013-01-24 | At&T Intellectual Property I, L.P. | System and method for enhancing speech activity detection using facial feature detection |
US20160231890A1 (en) * | 2011-07-26 | 2016-08-11 | Sony Corporation | Information processing apparatus and phase output method for determining phrases based on an image |
CN107209781A (zh) * | 2015-01-21 | 2017-09-26 | 微软技术许可有限责任公司 | 使用自然语言的上下文搜索 |
WO2016173326A1 (zh) * | 2015-04-30 | 2016-11-03 | 北京贝虎机器人技术有限公司 | 基于主题的交互系统及方法 |
CN108154153A (zh) * | 2016-12-02 | 2018-06-12 | 北京市商汤科技开发有限公司 | 场景分析方法和系统、电子设备 |
CN106782563A (zh) * | 2016-12-28 | 2017-05-31 | 上海百芝龙网络科技有限公司 | 一种智能家居语音交互系统 |
CN107086041A (zh) * | 2017-03-27 | 2017-08-22 | 竹间智能科技(上海)有限公司 | 基于加密计算的语音情感分析方法及装置 |
CN107799126A (zh) * | 2017-10-16 | 2018-03-13 | 深圳狗尾草智能科技有限公司 | 基于有监督机器学习的语音端点检测方法及装置 |
CN107808145A (zh) * | 2017-11-13 | 2018-03-16 | 河南大学 | 基于多模态智能机器人的交互身份鉴别与跟踪方法及系统 |
CN108172225A (zh) * | 2017-12-27 | 2018-06-15 | 浪潮金融信息技术有限公司 | 语音交互方法及机器人、计算机可读存储介质、终端 |
Non-Patent Citations (1)
Title |
---|
董士海: "人机交互的进展及面临的挑战", 《计算机辅助设计与图形学学报》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020007129A1 (zh) * | 2018-07-02 | 2020-01-09 | 北京百度网讯科技有限公司 | 基于语音交互的上下文获取方法及设备 |
CN109559761A (zh) * | 2018-12-21 | 2019-04-02 | 广东工业大学 | 一种基于深度语音特征的脑卒中风险预测方法 |
CN109462546A (zh) * | 2018-12-28 | 2019-03-12 | 苏州思必驰信息科技有限公司 | 一种语音对话历史消息记录方法、装置及系统 |
CN111475206A (zh) * | 2019-01-04 | 2020-07-31 | 优奈柯恩(北京)科技有限公司 | 用于唤醒可穿戴设备的方法及装置 |
CN110223718A (zh) * | 2019-06-18 | 2019-09-10 | 联想(北京)有限公司 | 一种数据处理方法、装置及存储介质 |
CN110825765A (zh) * | 2019-10-23 | 2020-02-21 | 中国建设银行股份有限公司 | 一种人脸识别的方法和装置 |
CN112598840A (zh) * | 2020-12-16 | 2021-04-02 | 广州云从鼎望科技有限公司 | 基于人脸识别和语音交互的通行设备控制方法、装置、机器可读介质及设备 |
CN118072376A (zh) * | 2024-04-18 | 2024-05-24 | 三峡高科信息技术有限责任公司 | 安全交接文档的生成方法、装置、存储介质及计算机设备 |
CN118093835A (zh) * | 2024-04-23 | 2024-05-28 | 国网山东省电力公司滨州市滨城区供电公司 | 基于大语言模型云服务的供电服务问答方法、系统及介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6968908B2 (ja) | 2021-11-17 |
KR20200004826A (ko) | 2020-01-14 |
WO2020007129A1 (zh) | 2020-01-09 |
US20210012777A1 (en) | 2021-01-14 |
EP3617946B1 (en) | 2024-01-03 |
EP3617946A4 (en) | 2020-12-30 |
EP3617946A1 (en) | 2020-03-04 |
JP2020529033A (ja) | 2020-10-01 |
CN108920639B (zh) | 2022-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108920639A (zh) | 基于语音交互的上下文获取方法及设备 | |
CN108920640A (zh) | 基于语音交互的上下文获取方法及设备 | |
CN112262431B (zh) | 使用说话者嵌入和所训练的生成模型的说话者日志 | |
CN107818798B (zh) | 客服服务质量评价方法、装置、设备及存储介质 | |
CN112889108B (zh) | 使用视听数据进行说话分类 | |
US11282516B2 (en) | Human-machine interaction processing method and apparatus thereof | |
CN108986825A (zh) | 基于语音交互的上下文获取方法及设备 | |
CN111488433A (zh) | 一种适用于银行的提升现场体验感的人工智能交互系统 | |
CN108960126A (zh) | 手语翻译的方法、装置、设备及系统 | |
CN110704618B (zh) | 确定对话数据对应的标准问题的方法及装置 | |
CN112837669B (zh) | 语音合成方法、装置及服务器 | |
CN109003600B (zh) | 消息处理方法及装置 | |
CN113223560A (zh) | 情绪识别方法、装置、设备及存储介质 | |
CN113299312A (zh) | 一种图像生成方法、装置、设备以及存储介质 | |
CN112632244A (zh) | 一种人机通话的优化方法、装置、计算机设备及存储介质 | |
CN114138960A (zh) | 用户意图识别方法、装置、设备及介质 | |
CN114268747A (zh) | 基于虚拟数字人的访谈业务处理方法及相关装置 | |
CN109961152B (zh) | 虚拟偶像的个性化互动方法、系统、终端设备及存储介质 | |
CN113762056A (zh) | 演唱视频识别方法、装置、设备及存储介质 | |
Ivanko et al. | Designing advanced geometric features for automatic Russian visual speech recognition | |
CN108899035B (zh) | 消息处理方法及装置 | |
CN115861670A (zh) | 特征提取模型的训练方法和数据处理方法及装置 | |
CN114862420A (zh) | 身份识别方法、装置、程序产品、介质及设备 | |
CN111782775A (zh) | 对话方法、装置、设备和介质 | |
CN112036350B (zh) | 一种基于政务云的用户调查方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |