CN111885343A - 特征处理方法及装置、电子设备和可读存储介质 - Google Patents

特征处理方法及装置、电子设备和可读存储介质 Download PDF

Info

Publication number
CN111885343A
CN111885343A CN202010764506.5A CN202010764506A CN111885343A CN 111885343 A CN111885343 A CN 111885343A CN 202010764506 A CN202010764506 A CN 202010764506A CN 111885343 A CN111885343 A CN 111885343A
Authority
CN
China
Prior art keywords
customer service
audio
facial expression
emotion
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010764506.5A
Other languages
English (en)
Other versions
CN111885343B (zh
Inventor
王密
陈永录
余四洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202010764506.5A priority Critical patent/CN111885343B/zh
Publication of CN111885343A publication Critical patent/CN111885343A/zh
Application granted granted Critical
Publication of CN111885343B publication Critical patent/CN111885343B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Hospice & Palliative Care (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开提供了一种特征处理方法,包括:采集客服人员与客户视频通话时的实时视频数据;提取所述实时视频数据中所述客服人员的面部表情特征和音频特征;以及根据所述面部表情特征和所述音频特征确定所述客服人员当前的服务情绪为第一情绪时,对所述客服人员的面部表情特征和音频特征进行第二情绪化渲染。本公开还提供了一种特征处理装置、一种电子设备和一种计算机可读存储介质。

Description

特征处理方法及装置、电子设备和可读存储介质
技术领域
本公开涉及视频处理技术领域,尤其涉及一种特征处理方法及装置、电子设备和可读存储介质。
背景技术
随着技术的不断发展,人们可以通过视频通话的手段进行交流沟通,其相较于传统的文字或语音交流具有很大的优势,例如,视频通话的双方不但能听到对方的声音,还能看到对方的形象,是更接近于真实面对面交流的方式。然而,对于一些特定的场景,例如客服人员和客户之间的视频通话,如果视频中客服人员不佳的状态直接展现于客户面前,会降低客户满意程度,因此如何在视频中展现良好的客服人员形象,以提高服务水平是一个亟需解决的问题。
发明内容
有鉴于此,本公开提供了一种特征处理方法及装置、电子设备和可读存储介质。
本公开的一个方面,提供了一种特征处理方法,包括:采集客服人员与客户视频通话时的实时视频数据;提取实时视频数据中客服人员的面部表情特征和音频特征;以及根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染。
根据本公开实施例,上述特征处理方法还包括:将面部表情特征和音频特征与标准视频数据库中的特征进行比较,以确定客服人员当前的服务情绪。
根据本公开实施例,上述特征处理方法还包括:建立用于体现客服人员服务情绪的标准视频数据库,包括;录制体现客服人员第二情绪的视频,进而提取客服人员面部表情特征和音频特征分别生成第二面部表情特征组和第二音频特征组;以及根据客服人员历史服务记录中的体现第一情绪的视频,提取客服人员面部表情特征和音频特征分别生成第一面部表情特征组和第一音频特征组。
根据本公开实施例,上述采集客服人员与客户视频通话时的实时视频数据包括按设定频率采集客服人员与客户视频通话时的图像数据;以及采集客服人员与客户视频通话时的音频数据。
根据本公开实施例,上述提取实时视频数据中客服人员的面部表情特征和音频特征包括:根据实时视频数据中的图像数据提取客服人员实时面部表情特征;以及根据实时视频数据中的音频数据提取的客服人员的实时音频特征。
根据本公开实施例,上述根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染包括:确定客服人员实时面部表情特征属于第一面部表情特征组时,根据标准视频数据库中的第二面部表情特征组对客服人员的面部表情进行合成渲染;以及确定客服人员实时音频特征属于第一音频特征组时,根据标准视频数据库中的第二音频特征组对客服人员的音频进行合成渲染;其中,所述第一情绪背离服务标准,所述第二情绪符合服务标准。。
根据本公开实施例,上述根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染还包括:确定客服人员当前的服务情绪为第一情绪时,发出提醒,以能够提示客服人员改变服务情绪。
本公开的另一个方面,提供了一种特征处理装置,包括:采集模块,提取模块,以及渲染模块。
其中,采集模块,用于采集客服人员与客户视频通话时的实时视频数据;第一提取模块,用于提取实时视频数据中客服人员的面部表情特征和音频特征;以及渲染模块,用于根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染。
根据本公开实施例,上述装置还包括:比较模块,用于将面部表情特征和音频特征与标准视频数据库中的特征进行比较,以确定客服人员当前的服务情绪。
根据本公开实施例,上述装置还包括:建立模块,用于建立用于体现客服人员服务情绪的标准视频数据库,其中,建立模块包括录制单元,以及提取单元。
其中,录制单元,用于录制体现客服人员第二情绪的视频,进而提取客服人员面部表情特征和音频特征分别生成第二面部表情特征组和第二音频特征组;以及提取单元,根据客服人员历史服务记录中的体现第一情绪的视频,提取客服人员面部表情特征和音频特征分别生成第一面部表情特征组和第一音频特征组。
根据本公开实施例,上述采集模块包括:图像采集单元,以及音频采集单元。
其中,图像采集单元,用于按设定频率采集客服人员与客户视频通话时的图像数据;以及音频采集单元,用于采集客服人员与客户视频通话时的音频数据。
根据本公开实施例,上述提取模块包括:表情特征提取单元,以及音频特征提取单元。
其中,表情特征提取单元,用于根据实时视频数据中的图像数据提取客服人员实时面部表情特征;以及音频特征提取单元,用于根据实时视频数据中的音频数据提取的客服人员的实时音频特征。
根据本公开实施例,上述渲染模块包括:表情渲染单元,以及音频渲染单元。
其中,表情渲染单元,用于确定客服人员实时面部表情特征属于第一面部表情特征组时,根据标准视频数据库中的第二面部表情特征组对客服人员的面部表情进行合成渲染;以及音频渲染单元,用于确定客服人员实时音频特征属于第一音频特征组时,根据标准视频数据库中的第二音频特征组对客服人员的音频进行合成渲染。
根据本公开实施例,上述渲染模块还包括:提醒单元,用于确定客服人员当前的服务情绪为第一情绪时,发出提醒,以能够提示客服人员改变服务情绪。
本公开的另一方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个指令,其中,当一个或多个指令被一个或多个处理器执行时,使得一个或多个处理器实现如上所述的方法。
本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,该指令被处理器执行时使处理器实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,计算机程序包括计算机可执行指令,该指令被处理器执行时使处理器实现如上所述的方法。
根据本公开的实施例,因为采用了通过采集客服人员与客户视频通话时的实时视频数据;提取实时视频数据中客服人员的面部表情特征和音频特征;根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染技术手段,由于对客服人员视频通话时实时状态进行了管控,所以至少部分地克服了现有技术中无法实时监控和改善客服人员与客户视频通话时的服务情绪的技术问题,进而达到了提升客服人员服务水平的技术效果。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了可以应用本公开的特征处理方法及装置的示例性系统架构;
图2示意性示出了根据本公开实施例的特征处理方法的流程图;
图3示意性示出了根据本公开另一实施例的特征处理方法的流程图;
图4示意性示出了根据本公开实施例的建立用于体现客服人员服务情绪的标准视频数据库的流程图;
图5示意性示出了根据本公开实施例的采集客服人员与客户视频通话时的实时视频数据的流程图;
图6示意性示出了根据本公开实施例的提取实时视频数据中客服人员的面部表情特征和音频特征的流程图;
图7示意性示出了根据本公开实施例的一种根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染的流程图;
图8示意性示出了根据本公开的实施例的特征处理装置的框图;以及
图9示意性示出了根据本公开实施例的适于实现上述特征处理方法的计算机系统的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
本公开的实施例提供了一种特征处理方法及装置、电子设备和可读存储介质。该方法包括:采集客服人员与客户视频通话时的实时视频数据;提取实时视频数据中客服人员的面部表情特征和音频特征;以及根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染。
图1示意性示出了根据本公开实施例的特征处理方法及装置的示例性系统架构100。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103、网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的特征处理方法一般可以由服务器105执行。相应地,本公开实施例所提供的特征处理装置一般可以设置于服务器105中。本公开实施例所提供的特征处理方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的特征处理装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。或者,本公开实施例所提供的特征处理方法也可以由终端设备101、102、或103执行,或者也可以由不同于终端设备101、102、或103的其他终端设备执行。相应地,本公开实施例所提供的特征处理装置也可以设置于终端设备101、102、或103中,或设置于不同于终端设备101、102、或103的其他终端设备中。
例如,视频数据可以通过终端设备101、102、或103中的任意一个(例如,终端设备101,但不限于此)进行采集。然后,终端设备101可以在本地执行本公开实施例所提供的特征处理方法,或者将指标数据发送到其他终端设备、服务器、或服务器集群,并由接收该指标数据的其他终端设备、服务器、或服务器集群来执行本公开实施例所提供的特征处理方法。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
在实现本公开的过程中发明人发现,客服人员和客户之间进行视频通话时,如果视频中客服人员不佳的状态直接展现于客户面前,会降低客户满意程度。因此需要深入研究如何在视频通话中实时展现良好的客服人员形象。
本公开的实施例提供了一种特征处理方法及装置,通过采集客服人员与客户视频通话时的实时视频数据;提取实时视频数据中客服人员的面部表情特征和音频特征;根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染,提升客服人员服务水平。
图2示意性示出了根据本公开实施例的特征处理方法的流程图。
如图2所示,该方法包括操作S201~S203。
在操作S201,采集客服人员与客户视频通话时的实时视频数据。
根据本公开的实施例,客户拨打客服电话,根据自助语音提示转到人工服务;根据相关路由,路由到对应的座席(综合座席、信用卡座席、地区座席);座席接入视频邀请,调起摄像装置与客户进行视频通话;此时显示装置将客服人员当前形象展示给客户;摄像装置会通过信号传输,将实时视频(音、视频)数据进行存储。
在操作S202,提取实时视频数据中客服人员的面部表情特征和音频特征。
根据本公开的实施例,实时视频数据中包括客服人员的图像数据和音频数据,依此分别提取客服人员的面部表情特征和音频特征。例如通过人脸识别模型或采用相关算法在图像给定区域进行人脸检测,检测图片中是否存在人脸。在人脸检测分类器之前需要使用大量的人脸样本和非人脸样本进行分类器训练。在视频图像中检测到的人脸信息,把人脸作为感兴趣的部分进行提取。进行相关的预处理;例如去除相关因素的影响,包括光照、背景、颜色、位置等因素的影响,进行均衡处理;根据人工智能识别人脸表情算法,进行不断的参数调整、预处理、训练和表情特征提取;上述人脸的检测和提取方式仅是示例型说明,本公开并不以此为限。
在操作S203,根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染。
根据本公开的实施例,确定客服人员当前的服务情绪为第一情绪时,如上述第一情绪背离服务标准,将会给客户带来非常不好的服务体验,因此需要及时的对客服人员当前视频中的面部表情特征和音频特征进行符合服务标准的渲染,进而改变客服人员当前的服务情绪。
根据本公开的实施例,因为采用了通过采集客服人员与客户视频通话时的实时视频数据;提取实时视频数据中客服人员的面部表情特征和音频特征;根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染技术手段,由于对客服人员视频通话时实时状态进行了管控,所以至少部分地克服了现有技术中无法实时监控和改善客服人员与客户视频通话时的服务情绪的技术问题,进而达到了提升客服人员服务水平的技术效果。
下面参考3~图5,结合具体实施例对图2所示的方法做进一步说明。
在实现本公开的过程中发现,为了更好的确定客服人员当前的情绪状态,需要给客服人员建立一个体现服务情绪的标准视频数据库,将客服人员当前的面部表情特征和音频特征与标准视频数据库中的特征进行比对判别,以确定客服人员当前的服务情绪。
图3示意性示出了根据本公开另一实施例的特征处理方法的流程图。
如图3所示,该方法除包括操作S201、S202、S203外,还包括操作S301。其中,操作S201、S202、S203可以参见上述图2中的描述,在此不再赘述。
在操作S301,将面部表情特征和音频特征与标准视频数据库中的特征进行比较,以确定客服人员当前的服务情绪。
根据本公开的实施例,标准数据库可以包括体现客服人员各种情绪的面部表情特征和声音(音频)特征,上述标准数据库的建立可以更好的作为确定客服人员当前的服务情绪的参照物。
图4示意性示出了根据本公开实施例的建立用于体现客服人员服务情绪的标准视频数据库的流程图。
如图4所示,该方法包括操作S401和操作S402。
在操作S401,录制体现客服人员第二情绪的视频,进而提取客服人员面部表情特征和音频特征分别生成第二面部表情特征组和第二音频特征组。
在操作S402,根据客服人员历史服务记录中的体现第一情绪的视频,提取客服人员面部表情特征和音频特征分别生成第一面部表情特征组和第一音频特征组。
根据本公开实施例,操作S401和操作S402可以是对操作301的进一步说明。
根据本公开的实施例,为了给客服人员建立一个符合服务标准的特征数据库,需要录制一个体现第二情绪的视频,例如愉快、乐观的符合服务标准的情绪。录制后,将客服人员的面部图像和音频进行提取,然后进一步提取出第二情绪下的面部表情特征生成第二面部表情特征组,上述符合服务标准的面部表情特征组可以包括:两侧嘴角上弯的角度,露出牙齿的数量、面积等。提取出第二情绪下的音频特征组成第二音频特征组,例如可以包括:音调平和程度、声音大小程度、语速程度等。
根据本公开的实施例,除建立高质量的服务标准外,还要建立一个体现客服人员背离服务标准的特征数据库,例如可以选择客服人员历史服务记录中的客户评价较低、或明显体现出激动、生气、平淡、冷漠等情绪的第一情绪的视频,从中提出第一面部表情特征生成第一面部表情特征组;从中提取出例如声音低沉时、平淡冷漠时、声音尖锐刺耳时、语速过快或过慢时的音频特征组成体现背离服务情绪的第一音频特征组。
对于面部表情特征来说,例如微笑时、两侧嘴角上翘时,能很大程度反映出客服人员的情绪符合服务标准;而眉毛紧缩时、眉毛上扬时、瞪眼时、斜视时、两侧嘴角向下时,能很大程度反映出客服人员的情绪背离服务标准。对于音频特征来说,例如音调平和时、声音大小适中时、语速正常时,能很大程度反映出客服人员的情绪符合服务标准;而声音低沉时、尖锐时、语速过快或过慢时,能很大程度反映出客服人员的情绪背离服务标准。上述关于表情特征和音频特征仅是举例进行说明,本公开并不以此为限。
然而需要说明的是,由于服务行业或服务场景的不同,服务标准对于客服人员服务情绪的要求时不同的,例如有时第一情绪为反映愉悦情绪时背离服务标准;有时为反映悲伤情绪时背离服务标准;有时反映严肃情绪时背离服务标准;同理,第二情绪内容也可以包括愉悦、平和、悲伤、严肃等情绪,作为符合服务标准的第二情绪内容根据第一情绪的不同而改变。
根据本公开的实施例,通过上述第二面部表情特征组和第二音频特征组,第一面部表情特征组和第一音频特征组,能够更快速准确的确定客服人员当前的服务情绪。
图5示意性示出了根据本公开实施例的采集客服人员与客户视频通话时的实时视频数据的流程图。
如图5所示,该方法除包括操作S501~S502。
在操作S501,按设定频率采集客服人员与客户视频通话时的图像数据。
在操作S502,采集客服人员与客户视频通话时的音频数据。
根据本公开实施例,例如,可以按照3到5帧/秒的设定频率进行采集,该设定频率依具体情况自主设定,本公开并不以此为限。
图6示意性示出了根据本公开实施例的提取实时视频数据中客服人员的面部表情特征和音频特征的流程图。
如图6所示,该方法除包括操作S601~S602。
在操作S601,根据实时视频数据中的图像数据提取客服人员实时面部表情特征。
在操作S602,根据实时视频数据中的音频数据提取的客服人员的实时音频特征。
根据本公开实施例,操作S601和操作S602可以是对操作202的进一步说明。
根据本公开的实施例,实时视频数据中客服人员的面部表情和声音能够较好的反映出客服人员当前的情绪状态,从中提取出客服人员当前的面部表情特征和音频特征,能够更直观的了解客服人员当前的情绪状态。
图7示意性示出了根据本公开实施例的一种根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染的流程图。
如图7所示,该方法除包括操作S701~S702。
在操作S701,通过特征匹配度比较确定客服人员实时面部表情特征属于第一面部表情特征组时,根据标准视频数据库中的第二面部表情特征组对客服人员的面部表情进行合成渲染。
在操作S702,通过特征匹配度比较确定客服人员实时音频特征属于第一音频特征组时,根据标准视频数据库中的第二音频特征组对客服人员的音频进行合成渲染。
根据本公开实施例,操作S701和操作S702可以是对操作203的进一步说明。
根据本公开实施例,上述通过特征匹配度比较,例如通过将两个眉毛之间的间距,眉毛的角度,嘴角的角度等特征与对应的第一面部表情特征组中的特征进行匹配度比较,匹配度大于95%时,即认为该面部表情特征属于第一面部表情特征组。匹配度小于95%时,即认为该面部表情特征不属于第一面部表情特征组。音频特征匹配度比较原理也同上,在此不再赘述。上述特征匹配度比较的方式仅是示例型说明,本公开不限于此。
根据本公开实施例,当根据客服人员实时视频数据中提取的面部表情特征与第一面部表情特征组中的特征一致时,或者所提取的音频特征与第一音频特征组中的特征一致时,即确定客服人员当前处于服务状态背离服务标准,此时如果继续向客户展示客服人员的背离服务标准,将给客户带来不佳的服务体验。因此需要调用根据标准视频数据库生成的第二面部表情特征组中的第二面部表情特征,对客服人员当前的面部表情进行合成渲染,或者调用第二音频特征组中的第二音频特征,对客服人员当前的音频进行合成渲染,从而改变客户人员当前展示出的服务状态。例如,可以利用第二面部表情特征替换客服人员当前的面部表情,或者,可以利用第二面部表情特征覆盖在客服人员当前的面部表情上,或者,参照第二面部表情特征对客服人员当前的面部表情进行处理,以生成符合服务标准的面部表情。再例如,可以利用第二音频特征替换客服人员当前的音频,或者。参照第二音频特征对客服人员当前的音频进行处理,以生成符合服务标准的音频等等。
或者可以基于现有的神经网络算法,例如StyleGAN等实现上述面部表情合成。
根据本公开实施例,更进一步的,确定客服人员当前的服务情绪为第一情绪时,可以通过显示界面发出文字提示,例如“您当前服务状态背离服务标准”“您当前处于烦躁状态,祝您天天开心,时刻拥有好心情”等文字提示;或者通过音频设备发出声音提示,以提示客服人员即使调整服务状态。
根据本公开实施例,能够做到根据客服人员面部表情、声音动态进行实时监控,若发现座席有痛苦、不耐烦等第一情绪表情时进行实时调整并提示座席,提升了座席服务水平,保证了高质量的对外服务。
需要说明的是,本公开实施例中的流程图所示的操作除非明确说明不同操作之间存在执行的先后顺序,或者不同操作在技术实现上存在执行的先后顺序,否则,多个操作之间的执行顺序可以不分先后,多个操作也可以同时执行。
图8示意性示出了根据本公开的实施例的特征处理装置的框图。
如图8所示,特征处理装置800包括:采集模块810,提取模块820,渲染模块830。
采集模块810用于采集客服人员与客户视频通话时的实时视频数据。
确定模块820用于提取实时视频数据中客服人员的面部表情特征和音频特征。
渲染模块830用于根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染。
根据本公开的实施例,因为采用了通过采集客服人员与客户视频通话时的实时视频数据;提取实时视频数据中客服人员的面部表情特征和音频特征;根据面部表情特征和音频特征确定客服人员当前的服务情绪为第一情绪时,对客服人员的面部表情特征和音频特征进行第二情绪化渲染技术手段,由于对客服人员视频通话时实时状态进行了管控,所以至少部分地克服了现有技术中无法实时监控和改善客服人员与客户视频通话时的服务情绪的技术问题,进而达到了提升客服人员服务水平的技术效果。
根据本公开实施例,上述特征处理装置800还包括:比较模块,用于将面部表情特征和音频特征与标准视频数据库中的特征进行比较,以确定客服人员当前的服务情绪。
根据本公开实施例,上述特征处理装置800还包括:建立模块,用于建立用于体现客服人员服务情绪的标准视频数据库,包括录制单元,以及提取单元。
其中,录制单元,用于录制体现客服人员第二情绪的视频,进而提取客服人员面部表情特征和音频特征分别生成第二面部表情特征组和第二音频特征组;以及提取单元,根据客服人员历史服务记录中的体现第一情绪的视频,提取客服人员面部表情特征和音频特征分别生成第一面部表情特征组和第一音频特征组。
根据本公开实施例,上述采集模块810包括:图像采集单元,以及音频采集单元。
其中,图像采集单元,用于按设定频率采集客服人员与客户视频通话时的图像数据;以及音频采集单元,用于采集客服人员与客户视频通话时的音频数据。
根据本公开实施例,上述提取模块820包括:表情特征提取单元,以及音频特征提取单元。
其中,表情特征提取单元,用于根据实时视频数据中的图像数据提取客服人员实时面部表情特征;以及音频特征提取单元,用于根据实时视频数据中的音频数据提取的客服人员的实时音频特征。
根据本公开实施例,上述渲染模块830包括:表情渲染单元,以及音频渲染单元。
其中,表情渲染单元,用于确定客服人员实时面部表情特征属于第一面部表情特征组时,根据标准视频数据库中的第二面部表情特征组对客服人员的面部表情进行合成渲染;以及音频渲染单元,用于确定客服人员实时音频特征属于第一音频特征组时,根据标准视频数据库中的第二音频特征组对客服人员的音频进行合成渲染。
根据本公开实施例,上述渲染模块830还包括:提醒单元,用于确定客服人员当前的服务情绪为第一情绪时,发出提醒,以能够提示客服人员改变服务情绪。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,采集模块810,提取模块820,渲染模块830中的任意多个可以合并在一个模块/单元/子单元中实现,或者其中的任意一个模块/单元/子单元可以被拆分成多个模块/单元/子单元。或者,这些模块/单元/子单元中的一个或多个模块/单元/子单元的至少部分功能可以与其他模块/单元/子单元的至少部分功能相结合,并在一个模块/单元/子单元中实现。根据本公开的实施例,采集模块810,提取模块820,渲染模块830中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,采集模块810,提取模块820,渲染模块830中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
需要说明的是,本公开的实施例中特征处理装置部分与本公开的实施例中特征处理方法部分是相对应的,特征处理装置部分的描述具体参考特征处理装置部分,在此不再赘述。
图9示意性示出了根据本公开实施例的适于实现上文描述的方法的计算机系统的框图。图9示出的计算机系统仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,根据本公开实施例的计算机系统900包括处理器901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。处理器901例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器901还可以包括用于缓存用途的板载存储器。处理器901可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 903中,存储有系统900操作所需的各种程序和数据。处理器901、ROM 902以及RAM 903通过总线904彼此相连。处理器901通过执行ROM 902和/或RAM 903中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 902和RAM903以外的一个或多个存储器中。处理器901也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,系统900还可以包括输入/输出(I/O)接口905,输入/输出(I/O)接口905也连接至总线904。系统900还可以包括连接至I/O接口905的以下部件中的一项或多项:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被处理器901执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质。例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 902和/或RAM 903和/或ROM 902和RAM 903以外的一个或多个存储器。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (12)

1.一种特征处理方法,包括:
采集客服人员与客户视频通话时的实时视频数据;
提取所述实时视频数据中所述客服人员的面部表情特征和音频特征;以及
根据所述面部表情特征和所述音频特征确定所述客服人员当前的服务情绪为第一情绪时,对所述客服人员的面部表情特征和音频特征进行第二情绪化渲染。
2.根据权利要求1所述的方法,还包括:
将所述面部表情特征和所述音频特征与标准视频数据库中的特征进行比较,以确定所述客服人员当前的服务情绪。
3.根据权利要求2所述的方法,还包括:建立用于体现所述客服人员服务情绪的标准视频数据库,包括;
录制体现所述客服人员第二情绪的视频,进而提取所述客服人员面部表情特征和音频特征分别生成第二面部表情特征组和第二音频特征组;以及
根据所述客服人员历史服务记录中的体现第一情绪的视频,提取所述客服人员面部表情特征和音频特征分别生成第一面部表情特征组和第一音频特征组。
4.根据权利要求1所述的方法,所述采集所述客服人员与客户视频通话时的实时视频数据包括:
按设定频率采集所述客服人员与客户视频通话时的图像数据;以及
采集所述客服人员与客户视频通话时的音频数据。
5.根据权利要求1所述的方法,所述提取所述实时视频数据中所述客服人员的面部表情特征和音频特征包括:
根据所述实时视频数据中的图像数据提取所述客服人员实时面部表情特征;以及
根据所述实时视频数据中的音频数据提取的所述客服人员的实时音频特征。
6.根据权利要求1所述的方法,所述根据所述面部表情特征和所述音频特征确定所述客服人员当前的服务情绪为第一情绪时,对所述客服人员的面部表情特征和音频特征进行第二情绪化渲染包括:
通过特征匹配度比较确定所述客服人员实时面部表情特征属于第一面部表情特征组时,根据标准视频数据库中的第二面部表情特征组对所述客服人员的面部表情进行合成渲染;以及
通过特征匹配度比较确定所述客服人员实时音频特征属于第一音频特征组时,根据标准视频数据库中的第二音频特征组对所述客服人员的音频进行合成渲染;
其中,所述第一情绪背离服务标准,所述第二情绪符合服务标准。
7.根据权利要求6所述的方法,所述根据所述面部表情特征和所述音频特征确定所述客服人员当前的服务情绪为第一情绪时,对所述客服人员的面部表情特征和音频特征进行第二情绪化渲染还包括:
确定所述客服人员当前的服务情绪为第一情绪时,发出提醒,以能够提示所述客服人员改变服务情绪。
8.一种特征处理装置,包括:
采集模块,用于采集客服人员与客户视频通话时的实时视频数据;
提取模块,用于提取所述实时视频数据中所述客服人员的面部表情特征和音频特征;以及
渲染模块,用于根据所述面部表情特征和所述音频特征确定所述客服人员当前的服务情绪为第一情绪时,对所述客服人员的面部表情特征和音频特征进行第二情绪化渲染。
9.根据权利要求8所述的装置,还包括:
比较模块,用于将所述面部表情特征和所述音频特征与标准视频数据库中的特征进行比较,以确定所述客服人员当前的服务情绪。
10.根据权利要求8所述的装置,所述渲染模块包括:
表情渲染单元,用于确定所述客服人员实时面部表情特征属于第一面部表情特征组时,根据标准视频数据库中的第二面部表情特征组对所述客服人员的面部表情进行合成渲染;以及
音频渲染单元,用于确定所述客服人员实时音频特征属于第一音频特征组时,根据标准视频数据库中的第二音频特征组对所述客服人员的音频进行合成渲染。
11.一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个指令,
其中,当所述一个或多个指令被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至7中任一项所述的方法。
12.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器实现权利要求1至7中任一项所述的方法。
CN202010764506.5A 2020-07-31 2020-07-31 特征处理方法及装置、电子设备和可读存储介质 Active CN111885343B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010764506.5A CN111885343B (zh) 2020-07-31 2020-07-31 特征处理方法及装置、电子设备和可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010764506.5A CN111885343B (zh) 2020-07-31 2020-07-31 特征处理方法及装置、电子设备和可读存储介质

Publications (2)

Publication Number Publication Date
CN111885343A true CN111885343A (zh) 2020-11-03
CN111885343B CN111885343B (zh) 2022-06-14

Family

ID=73205093

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010764506.5A Active CN111885343B (zh) 2020-07-31 2020-07-31 特征处理方法及装置、电子设备和可读存储介质

Country Status (1)

Country Link
CN (1) CN111885343B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837035A (zh) * 2021-09-09 2021-12-24 上海市儿童医院 一种儿童表情识别准确度提升方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101370195A (zh) * 2007-08-16 2009-02-18 英华达(上海)电子有限公司 移动终端中实现情绪调节的方法及装置
KR20170009087A (ko) * 2015-07-15 2017-01-25 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
US20170091535A1 (en) * 2015-09-29 2017-03-30 BinaryVR, Inc. Head-mounted display with facial expression detecting capability
CN107636684A (zh) * 2015-03-18 2018-01-26 阿凡达合并第二附属有限责任公司 视频会议中的情绪识别
CN108694693A (zh) * 2017-04-10 2018-10-23 英特尔公司 基于面部表情来调整图形渲染
CN109871751A (zh) * 2019-01-04 2019-06-11 平安科技(深圳)有限公司 基于人脸表情识别的服务态度评估方法、装置及存储介质
CN109919001A (zh) * 2019-01-23 2019-06-21 深圳壹账通智能科技有限公司 基于情绪识别的客服监测方法、装置、设备和存储介质
CN111401921A (zh) * 2020-03-05 2020-07-10 成都威爱新经济技术研究院有限公司 一种基于虚拟人的远程客服方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101370195A (zh) * 2007-08-16 2009-02-18 英华达(上海)电子有限公司 移动终端中实现情绪调节的方法及装置
CN107636684A (zh) * 2015-03-18 2018-01-26 阿凡达合并第二附属有限责任公司 视频会议中的情绪识别
KR20170009087A (ko) * 2015-07-15 2017-01-25 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
US20170091535A1 (en) * 2015-09-29 2017-03-30 BinaryVR, Inc. Head-mounted display with facial expression detecting capability
CN108694693A (zh) * 2017-04-10 2018-10-23 英特尔公司 基于面部表情来调整图形渲染
CN109871751A (zh) * 2019-01-04 2019-06-11 平安科技(深圳)有限公司 基于人脸表情识别的服务态度评估方法、装置及存储介质
CN109919001A (zh) * 2019-01-23 2019-06-21 深圳壹账通智能科技有限公司 基于情绪识别的客服监测方法、装置、设备和存储介质
CN111401921A (zh) * 2020-03-05 2020-07-10 成都威爱新经济技术研究院有限公司 一种基于虚拟人的远程客服方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
许丽萍: "AI成就智能客服", 《上海信息化》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837035A (zh) * 2021-09-09 2021-12-24 上海市儿童医院 一种儿童表情识别准确度提升方法
CN113837035B (zh) * 2021-09-09 2024-03-22 上海市儿童医院 一种儿童表情识别准确度提升方法

Also Published As

Publication number Publication date
CN111885343B (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
JP7110502B2 (ja) 深度を利用した映像背景減算法
US11017239B2 (en) Emotive recognition and feedback system
CN109726624B (zh) 身份认证方法、终端设备和计算机可读存储介质
CN110298906B (zh) 用于生成信息的方法和装置
KR102073168B1 (ko) 비디오 회의에서의 감정 인식
US10984226B2 (en) Method and apparatus for inputting emoticon
US9674485B1 (en) System and method for image processing
US9329677B2 (en) Social system and method used for bringing virtual social network into real life
US9100540B1 (en) Multi-person video conference with focus detection
CN111476871B (zh) 用于生成视频的方法和装置
US9699312B2 (en) Systems and methods for desktop data recording for customer agent interactions
US20160329050A1 (en) Meeting assistant
US10394622B2 (en) Management system for notifications using contextual metadata
JP7257591B2 (ja) パーソナライズされた自動ビデオクロッピング
JP7292782B2 (ja) 遠隔会議システム、遠隔会議のための方法、およびコンピュータ・プログラム
CN109271929B (zh) 检测方法和装置
CN111885343B (zh) 特征处理方法及装置、电子设备和可读存储介质
US20210118223A1 (en) Video lighting using depth and virtual lights
US11824873B2 (en) Digital media authentication
US11663851B2 (en) Detecting and notifying for potential biases in artificial intelligence applications
WO2020221089A1 (zh) 通话界面的显示方法、电子设备和计算机可读介质
US10764398B2 (en) Rendering a portion of an image corresponding to an interest of a user
US20140229239A1 (en) Face retirement tool
GB2618894A (en) Measuring and transmitting emotional feedback in group teleconferences
US11539540B1 (en) Ameliorative resource action during an e-conference

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant