CN110446061B - 视频数据获取方法、装置、计算机设备及存储介质 - Google Patents

视频数据获取方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN110446061B
CN110446061B CN201910600035.1A CN201910600035A CN110446061B CN 110446061 B CN110446061 B CN 110446061B CN 201910600035 A CN201910600035 A CN 201910600035A CN 110446061 B CN110446061 B CN 110446061B
Authority
CN
China
Prior art keywords
rescue
video data
rescued
information
rescuers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910600035.1A
Other languages
English (en)
Other versions
CN110446061A (zh
Inventor
江虹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OneConnect Financial Technology Co Ltd Shanghai
Original Assignee
OneConnect Financial Technology Co Ltd Shanghai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OneConnect Financial Technology Co Ltd Shanghai filed Critical OneConnect Financial Technology Co Ltd Shanghai
Priority to CN201910600035.1A priority Critical patent/CN110446061B/zh
Publication of CN110446061A publication Critical patent/CN110446061A/zh
Application granted granted Critical
Publication of CN110446061B publication Critical patent/CN110446061B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Alarm Systems (AREA)

Abstract

本发明公开了一种视频数据获取方法、装置、计算机设备及存储介质。本发明提供的方法包括:获取目标数据;按预设规则从待解析视频数据中提取视频帧,获取所述视频帧的解析结果,并计算所述解析结果与所述目标数据的匹配结果;根据多个所述匹配结果确定所述待解析的视频数据的切割起点和切割终点;根据所述切割起点和所述切割终点对所述待解析的视频数据进行裁剪,得到目标视频数据。通过本发明提供的视频数据获取方法,将得到的目标视频数据作为救援证据使用时,可提高获取到的救援证据的可用性,也可减少用户的对道路救援的异议。

Description

视频数据获取方法、装置、计算机设备及存储介质
技术领域
本发明涉及数据采集领域,尤其涉及一种视频数据获取方法、装置、计算机设备及存储介质。
背景技术
道路救援指的是汽车道路紧急救援,为故障车主提供现场小修等服务,同时也指交通事故道路救援,包括道路疏导等。在实施救援行为时,救援方需要通过拍照方式来留下救援的证据,以便后续和用户或保险公司进行费用结算。但以拍照方式获得的照片作为执行救援行为的证据存在一定局限性,即拍照获得的照片信息量小,同时由于拍摄角度等问题,照片在作为证据使用时,可能存在多种解读方式,无法起到相应的证明作用。
因此,需要提供一种新的证据获取方式来保存救援行为发生时产生的信息,以提高获取到的证据的可用性。
发明内容
基于此,有必要针对上述技术问题,提供一种视频数据获取方法、装置、计算机设备及存储介质,用于提高获取到的救援证据的可用性,减少用户对道路救援的异议,同时通过自动判断道路救援的开始与结束(通过切割起点和切割终点可分别实现开启和关闭摄像设备功能),可减少摄像设备录制的工作量,也可避免拍摄过多无用的视频数据。
一种视频数据获取方法,包括:
获取目标数据;
按预设规则从待解析视频数据中提取视频帧,获取所述视频帧的解析结果,并计算所述解析结果与所述目标数据的匹配结果;
根据多个所述匹配结果确定所述待解析的视频数据的切割起点和切割终点;
根据所述切割起点和所述切割终点对所述待解析的视频数据进行裁剪,得到目标视频数据。
一种视频数据获取装置,包括:
第一获取模块,用于获取目标数据;
计算模块,用于按预设规则从待解析视频数据中提取视频帧,获取所述视频帧的解析结果,并计算所述解析结果与所述目标数据的匹配结果;
第一确定模块,用于根据多个所述匹配结果确定所述待解析的视频数据的切割起点和切割终点;
裁剪模块,用于根据所述切割起点和所述切割终点对所述待解析的视频数据进行裁剪,得到目标视频数据。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述视频数据获取方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述视频数据获取方法。
上述视频数据获取方法、装置、计算机设备及存储介质,获取目标数据;按预设规则从待解析视频数据中提取视频帧,获取所述视频帧的解析结果,并计算所述解析结果与所述目标数据的匹配结果;根据多个所述匹配结果确定所述待解析的视频数据的切割起点和切割终点;根据所述切割起点和所述切割终点对所述待解析的视频数据进行裁剪,得到目标视频数据。本方案先通过多种目标数据确定出匹配结果,多种目标数据的识别可提高识别的精准性;再从多个匹配结果确定出待解析视频中的切割起点和切割终点,既可以实现自动判断道路救援的开始与结束(通过切割起点和切割终点可分别实现开启和关闭摄像设备功能),从而可减少摄像设备录制的工作量,也可避免拍摄过多无用的视频数据;同时本方案得到的目标视频数据作为救援证据使用时,可提高获取到的救援证据的可用性,也可减少用户的对道路救援的异议。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中视频数据获取方法的一应用环境示意图;
图2是本发明一实施例中视频数据获取方法的一流程图;
图3是本发明一实施例中视频数据获取方法的步骤S10的流程示意图;
图4是本发明一实施例中视频数据获取方法的步骤S102的流程示意图;
图5是本发明一实施例中视频数据获取方法的步骤S103的流程示意图;
图6是本发明一实施例中视频数据获取方法的步骤S20的流程示意图;
图7是本发明一实施例中视频数据获取装置的结构示意图;
图8是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的视频数据获取方法,可应用在如图1的应用环境中,其中,客户端通过网络与服务器进行通信。其中,客户端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种视频数据获取方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
S10,获取目标数据;
本实施例中,目标数据包括待救援信息和标识信息。其中,待救援信息包括待救援车辆的位置、事故项、待救援车辆信息、用户发出救援请求时间点和用户联系方式。事故项为用户根据自己的待救援车辆作出的初次判断的事故原因(可以在救援报案平台中选择符合的事故项),一个事故项可以包括待救援车辆油量不够,水箱水量不够、机油不足和爆胎等情况。待救援车辆信息包括待救援车辆的车型、颜色以及车牌号。
标识信息包括待救援车辆的双闪、警告标志和待救援车辆的事故项对应的呈现方式中的一种或者多种(当待救援车辆的事故项为待救援车辆发生碰撞事故,即与其对应的呈现方式可以为待救援车辆表面出现凹陷或者待救援车辆不够完整;当待救援车辆的事故项为待救援车辆出现爆胎事故,即与其对应的呈现方式可以为待救援车辆的某个轮胎出现干瘪的现象)。
目标数据中的待救援信息可以来源于用户在救援报案平台上传的信息。标识信息可以通过安装在救援车辆的摄像设备来进行获取。
进一步地,所述目标数据包括待救援信息,其中,所述待救援信息包括用户联系方式;如图3所示,所述步骤S10之后,还包括:
S101,根据所述目标数据中的所述待救援信息在预设优先级列表中确定一个优先级最高且处于待工作状态的救援人员;
S102,通过所述待救援信息中的所述用户联系方式建立起用户与所述救援人员通话之后,获取所述救援人员进行通话的语音数据,对救援人员的语音数据进行语气分析,得到语气分析结果;
S103,将所述救援人员的语音数据转换为文本数据之后,判断所述文本数据中的服务用语是否达标,并获取服务用语达标的数量;
S104,通过所述语气分析结果以及所述服务用语达标的数量对所述救援人员进行评分,得到第一评分分数,并根据所述第一评分分数对所述救援人员在所述预设优先级列表中的优先级进行调整。
可理解地,预设优先级列表中的各个救援人员的优先级顺序可根据各个救援人员的从业时长、各个救援人员的专业程度和各个用户对救援人员的评价等方面来预先设定。处于待工作状态的救援人员可由救援报案平台对应的服务器确定(服务器可标记处于工作状态的救援人员)。
具体地,首先根据目标数据的待救援信息在预设优先级列表中确定一个优先级最高且处于待工作状态的救援人员(若优先级最高的救援人员处于工作状态,则在预设优先级列表中确定出一个次级优先级且处于待工作状态的救援人员,按照这种确定方式在预设优先级列表中可确定出一个救援人员,一旦确定出一个救援人员,就无需在预设优先级列表中确定出另一个救援人员)。接着确定出救援人员后,需要建立起用户与救援人员通话,可以实时获取救援人员的语音数据,并将救援人员的语音数据通过特定语音识别模型,得到文本数据。然后可以通过获取救援人员的情绪识别结果,从而可以进一步确定语气分析结果,可通过获取文本数据包含的服务用语,接着判断文本数据中的服务用语是否达标,在此详细过程不再赘述。最后可以根据语气分析结果以及服务用语达标的数量对救援人员进行评分,得到第一评分分数,评分的规则可以预设设置,比如,评分的规则可以为:语气分析结果为高兴和开心对应的分数为5分,服务用语达标的额数量为5个对应的分数为5分等。
本实施例中,根据待救援信息确定一个优先级最高且处于工作状态的救援人员,由于此救援人员相比其他救援人员可能具备更专业和更负责的服务,因此可能会给用户带来更好的体验。对救援人员进行评分,且根据第一评分分数对该救援人员在预设优先级列表中的优先级进行调整,此方法可以对救援人员的通话过程进行一定的监督,从而对救援人员起到约束作用,也可避免部分救援人员由于不遵守公司规定的服务条约从而影响公司的形象。
需要说明的是,根据目标数据中的待救援信息(来源于救援报案平台上传的待救援信息)在预设优先级列表中确定一个优先级最高且处于待工作状态的救援人员后,进而也可以确定出救援信息;其中,救援信息包括救援人员特征和救援车辆的位置;且救援人员特征包括救援人员的脸部和身形特征。具体可通过以下方式确定出救援人员特征:预先提取各个救援人员的脸部和身形特征,并将此特征关联救援人员的身份信息存储至预设数据库中,一旦确定救援人员的身份信息,就可以确定救援人员特征。也可通过以下方式确定救援车辆的位置:确定出救援人员后,为救援人员安排一辆与待救援信息中的事故项匹配的救援车(如拖车、加油车和维修员车等),当该救援车处于工作状态时,救援车可向救援报案平台对应的服务器发送救援车的位置(救援车上安装有相应的全球定位系统)。
进一步地,如图4所示,所述获取所述救援人员进行通话的语音数据,对救援人员的语音数据进行语气分析,得到语气分析结果,包括:
S1031,自预设声纹库中匹配与所述救援人员一致的声纹特征,所述预设声纹库保存各个所述救援人员的所述声纹特征;
S1032,根据所述声纹特征从用户与救援人员通话的语音数据中提取出所述救援人员的语音数据;
S1033,对所述救援人员的语音数据进行特征提取,获取多个语音特征;
S1034,采用情绪识别模型分别对各个所述语音特征进行识别,获取情绪识别结果;
S1035,通过所述情绪识别结果确定所述救援人员的所述语气分析结果。
可理解地,声纹特征是用电声学仪器显示的携带言语信息的声波频谱中较明显和稳定的特征。语音特征包括但不限于韵律特征、音质特征、频谱特征、词汇特征和声纹特征。其中,情绪识别模型是预先训练好的用于进行身份验证的模型;情绪识别结果包括但不限于识别出语音特征对应的救援人员说话时带有的高兴、愤怒、悲伤、烦躁和平静等情绪。语气分析结果为救援人携带的情绪反映出的语气。
具体地,首先在自预设库中匹配到与救援人员一致的声纹特征后,从用户与救援人员通话的语音数据中提取出与此声纹特征匹配的救援人员的语音数据。然后对救援人员的语音数据进行特征提取,具体提取过程包括:对救援人员的语音数据进行预加重处理,对加重处理后的语音数据进行分帧、加窗运算,然后通过快速傅里叶变换和对数运算处理,最后经离散余弦变换以获取上述的语音特征。再将上述语音特征拼接成特征向量,将特征向量作为输入情绪识别模型进行情绪识别,得到情绪识别结果。最后根据此情绪结果确定救援人员的语气分析结果(依据人的情绪可直接或间接反映出人的语气)。
本实施例中,采用预先训练好的情绪识别模型对语音特征进行识别,可以获取救援人员说话时携带的高兴、愤怒、悲伤、烦躁和平静等情绪识别结果,进而可通过情绪结果确定语气分析结果。且采用情绪识别模型对语音特征进行智能识别,以获取情绪识别结果,其识别过程处理效率高,可实现对救援人员的语音数据进行及时且全面抽检,无需人工干预,有利于节省人工成本。
需要说明的是,情绪识别模型可以基于神经网络训练获得,训练过程如下:首先,获取训练语音数据,并对训练语音数据进行情绪标注,以使训练语音数据携带情绪标签。其中,每种情绪标签对应的训练语音数据各选取预设数量(比如500条),以使高兴、愤怒、悲伤、烦躁和平静等情绪对应的训练语音数据等比例,避免情绪识别模型训练过程中出现过拟合现象。然后,对携带情绪标签的训练语音数据进行特征提取,获取携带情绪标签的训练语音特征,具体用训练语音特征x和对应的情绪标签y表示,如(训练语音特征1,高兴)、(训练语音特征2,愤怒)……(训练语音特征x,情绪y)。接着,在神经网络模型中,可使用逻辑回归算法对所有训练语音特征进行迭代计算,以得到高兴、愤怒、悲伤、烦躁和平静等情绪对应的特征的优化拟合结果。最后在多次迭代后,训练的模型的损失值收敛至预设的阈值,则停止训练,最终得到训练好的情绪识别模型。该训练好的情绪识别模型具有较强的非线性拟合能力,可映射复杂的非线性关系,并具有较强的鲁棒性和记忆能力。进一步地,本实施例的神经网络具体可以为深度神经网络(Deep Neural Networks,即DNN)。
进一步地,如图5所示,所述判断所述文本数据中的服务用语是否达标,包括:
S1036,提取所述文本数据包含的所述服务用语,并通过所述服务用语形成关键词组;
S1037,将所述关键词组与预设关键词组进行匹配,所述预设关键词组已关联于一个达标的结果;
S1038,在所述关键词组与所述预设关键词组匹配成功时,则判定所述服务用语达标;
S1039,在所述关键词组与所述预设关键词组匹配失败时,则将用户与救援人员通话的语音数据上传至预设数据库。
可理解地,服务用语为救援人员应在通话过程呈现出礼貌的服务用语。达标的结果意思为服务用语符合公司规定的服务条约。预设关键词组位于预设关键词组库中,其中,预设关键词组库中包括至少一组预设关键词组。
具体地,首先提取文本数据中预设位置(比如通话开始之前,或者通话结束之前等)的服务用语,并通过服务用语形成关键词组,比如,通话开始之前,提取到的服务用语为“您好,工号为123456很高兴为您服务,请问您的问题解决了没有”,形到的关键词组可以为“您好”、“很高兴为您服务”、“请问”等。接着将提取的关键词组与预设词组库中的预设关键词进行相似度匹配,当相似度大于或等于预设相似度,则可以确认此关键词组符合达标的结果,当相似度小于预设相似度,则可以确认此关键词组与预设关键词组匹配失败。
本实施例中,可以判断文本数据中的服务用语是否达标。且在关键词组与预设关键词组匹配失败时,则将用户与救援人员通话的语音数据上传至预设数据库,从而预设人员可以从预设数据库中的用户与救援人员通话的语音数据去再次确定救援人员的服务用语是否达标。
S20,按预设规则从待解析视频数据中提取视频帧,获取所述视频帧的解析结果,并计算所述解析结果与所述目标数据的匹配结果;
可理解地,预设规则用于确定从待解析视频数据中提取视频帧的时间间隔,如可以是每三秒钟提取一个视频帧,也可以是其他设定时间。解析结果为通过图像识别之后,视频帧所要表达的内容(包括待救援车辆的车型、颜色以及车牌号、待救援车辆的双闪、警告标志和待救援车辆的事故项对应的呈现方式中的一种或者多种)。匹配结果可以只有两种结果:匹配成功和匹配失败,匹配结果也可以指匹配度,通过匹配度达到预设匹配度来确定匹配成功或匹配失败,其中,一个匹配结果反映一个视频帧的结果。
具体地,与救援报案平台对应的服务器首先实时获取上传至预设数据库的待解析视频。接着按照预设规则从待解析视频数据中提取视频帧后,通过图像识别技术对各视频帧进行识别,获取识别之后的各视频帧的各解析结果。随后计算各解析结果与目标数据的匹配结果(也即匹配度)。
在另一实施例中,预设规则可以为在救援车辆的位置偏离待救援车辆的位置时,按照预设时间间隔提取待解析视频中视频帧,救援车辆的位置未偏离待救援车辆的位置时,按照预设时间间隔提取待解析视频中视频帧。待解析视频来源于摄像设备所录制的,并在录制过程中,能不断地将摄像设备录制的视频上传至预设数据库中整合成待解析视频,但是一旦确定出下文提到的切割终点,摄像设备将被关闭录像功能。
进一步地,所述目标数据包括待救援信息和标识信息,其中,所述待救援信息包括待救援车辆信息;如图6所示,所述按预设规则从待解析的视频数据中提取视频帧,获取所述视频帧的解析结果之前,还包括:
S201,通过摄像设备识别到所述待救援信息中的所述待救援车辆信息以及所述目标数据中的所述标识信息,开启所述摄像设备的拍摄功能;
S202,获取所述摄像设备拍摄的现场救援画面和与救援人员关联的救援信息中的救援人员特征,并解析所述现场救援画面中的人物特征;
S203,判断所述人物特征是否与所述救援人员特征匹配;
S204,若所述人物特征与所述救援人员特征匹配,则确定所述救援人员在所述现场救援画面中的位置;
S205,根据所述救援人员在所述现场救援画面中的位置调节所述摄像设备的拍摄参数。
可理解地,救援信息包括救援人员特征以及救援车辆的位置,且救援信息与安排的救援人员相关联。摄像设备可安装在救援车辆车顶位置,其位置应让摄像头可360度无死角识别周围的环境(确定出待救援车辆信息中的待救援车辆的车型、颜色以及车牌号)。人物特征中包括至少一个人物的脸部和身形特征,人物可能包括救援人员、用户或者其他人。拍摄参数包括但不限于摄像头的焦距和摄像头的拍摄角度等。
具体地,首先通过摄像设备中的摄像头可识别到待救援信息以及标识信息中的一种或者/和多种(识别多种是为了防止摄像设备不能做到正确识别,比如,待救援车辆发生严重受损,摄像设备已识别不了待救援车辆的车牌号或者车型,此时,摄像设备可识别标识信息),开启摄像设备的拍摄功能。接着获取摄像设备初次拍摄的现场救援画面和与救援人员关联的救援信息中的救援人员特征,并通过图像识别技术识别现场救援画面,确定人物特征。并将人物特征与救援人员特征匹配;当匹配成功时,则确定救援人员在现场救援画面中的位置;当匹配失败时,则确定救援人员未出现在摄像设备所能拍摄的范围内。最好通过救援人员在现场救援画面中的位置,去调节摄像设备的拍摄参数。
在本实施例中,多种信息识别可提高识别的精准性。可以通过调节摄像设备的拍摄参数去确保全程记录救援人员的救援行为,也能保证救援人员在救援现场的情况,从而可提高道路救援获取到的证据的可用性。且最后拍摄完成后所得到的待解析视频数据具备可用性高和清楚完整的特点,从而保证上述步骤S20提取到的视频帧也具备可用性高和清楚完整的特点,图像识别技术可以更快、更清楚解析该视频帧,也可以减少对无用的视频帧(不可作为救援证据)进行解析。
S30,根据多个所述匹配结果确定所述待解析的视频数据的切割起点和切割终点;
本实施例中,获得的匹配结果按时序排列,可表示为:
匹配结果1;匹配结果2;匹配结果3;……匹配结果n。
匹配结果可以只有两个取值,一个为“1”,表示匹配成功,另一个为“0”,表示匹配失败。当出现第一个匹配结果为“1”时,确定与匹配结果对应的视频帧的所在时间为待解析的视频数据的切割起点。而当指定个数的匹配结果连续为“0”,可以指定时序排列最靠前一个匹配结果对应的视频帧所在的时间为待解析的视频数据的切割终点。
在另一实施例中,当多个匹配结果达到预设匹配度时,确定摄像设备第一次识别到待救援车辆信息和救援人员特征所在的匹配结果对应的视频帧为切割起点。当多个匹配结果未达到预设匹配度时,可以先确定多个匹配结果对应的各视频帧是属于救援车辆的位置偏离待救援车辆的位置的情况,从各视频帧确定出摄像设备最后一次识别到待救援车辆信息和救援人员特征的视频帧为切割终点。
S40,根据所述切割起点和所述切割终点对所述待解析的视频数据进行裁剪,得到目标视频数据。
具体地,摄像设备开启录像功能,与摄像设备对应的服务器上传待解析视频至救援报案平台对应的服务器中进行分析。由于分析过程中需要一定时间,从而摄像设备会多录制到少量的视频。因此,服务器可以根据切割起点和切割终点对待解析的视频数据进行裁剪,得到目标视频数据。
本实施例中,在确定出切割终点以后,摄像设备将被关闭拍摄功能(即自动判断此次道路救援的开始与结束),从而可以减少摄像设备录制的工作量,也可以减少预设数据库容纳过多无用的视频数据。
进一步地,所述目标数据包括待救援信息,其中,所述待救援信息包括事故项和用户联系方式;所述步骤S40之后,还包括:
A,通过所述目标视频数据确认道路救援涉及到的救援事项,所述目标视频数据包括至少一个所述救援事项;
B,将所述救援事项与所述待救援信息中的所述事故项进行匹配;
C,当所述救援事项与所述事故项匹配成功时,生成与所述救援事项相关的救援清单,并将所述救援清单发送给用户确认;
D,当所述救援事项与所述事故项匹配失败时,通过所述待救援信息中的所述用户联系方式建立起所述用户与救援人员通话,在通话过程中识别到所述用户确认所述救援事项无误后,生成与所述救援事项相关的所述救援清单,并将所述救援清单发送给所述用户。
可理解地,救援事项为救援人员根据待救援车辆的事故原因对待救援车辆作出具体的救援项目,包括拖车,送油、现场维修和送轮胎等项目。救援清单包括救援事项以及该救援事项对应的费用等相关的信息。
本实施例中,通过确定的救援事项(可通过人工观看目标视频数据去确认,或者也可通过图像识别去确认)与用户在报案平台上选择的事故项进行匹配。当匹配失败时,可以建立起用户与救援人员的通话,让救援人员去进一步解释沟通,从而增加用户对此次道路救援的进一步理解,减少用户的异议。
进一步地,所述目标数据包括待救援信息,其中,所述待救援信息包括用户发出救援请求时间点和待救援车辆的位置;所述步骤S40之后,还包括:
E,获取救援车辆到达所述待救援车辆的位置的最终时间点和所述用户发出救援请求时间点,并根据所述最终时间点和所述用户发出救援请求时间点确定到达时长;
F,通过所述目标视频数据中的所述切割起点和所述切割终点获取救援人员的救援时长;
G,通过所述到达时长和所述救援时长对所述救援人员进行评分,得到第二评分分数,并根据所述第二评分分数对所述救援人员在预设优先级列表中的优先级进行重新调整。
具体地,用户在救援报案平台上传待救援信息时,救援报案平台对应的服务器将生成救援请求。根据此救援请求可以获取到待救援信息中的用户发出救援请求时间点。当全球定位系统定位到救援车辆目前的位置位于待救援车辆的位置的预设范围内,确认救援车辆到达待救援车辆的位置,此时,可以记录当前救援车辆到达的时间点(也即最终时间点)。进而可以根据上述最终时间点和用户发出救援请求时间点确定出救援人员到达时长。然后救援人员的救援时长可通过切割起点和切割终点所对应的时间来确定(在摄像设备录制过程存在时间记录)。最后可以根据到达时长和救援时长对救援人员进行评分,得到第二评分分数,评分的规则也可以预先设置,比如,评分的规则可以为:到达时长超过规定的第一所需时长的10分钟对应的分数为3分,救援时长超过规定的第二所需时长的20分钟对应的分数为2分等。
本实施例中,对救援人员在道路救援的服务过程存在的负责程度和专业程度(通过到达时长和救援时长)进行再次评分,并根据评分分数再次调整救援人员在预设优先级列表中的优先级,可确保给接下来的用户带来更专业和更负责任的道路救援服务。
需要说明的是,第一所需时长的确定过程为:通过待救援车辆的位置、救援车辆的位置和道路交通信息确定救援人员到达待救援车辆的位置的第一所需时长。第一所需时长的确定过程为:通过救援事项以及事故项确定第二所需时长。其中,第一所需时长和第二时长设置应具备合理性,应考虑部分意外耽误时间的事件。
在另一实施例中,判断第一评分分数和第二评分分数相加的总分数是否小于预设分数阈值。若小于预设分数阈值,则确定救援人员需进行与道路救援关联的培训(包括服务用语的培训、专业服务的培训等)。若大于或等于预设分数阈值,则确定救援人员无需进行与道路救援相关的培训。
综上所述,上述提供了一种视频数据获取方法,按预设规则从待解析视频数据中提取视频帧,获取所述视频帧的解析结果,并计算所述解析结果与所述目标数据的匹配结果;根据多个所述匹配结果确定所述待解析的视频数据的切割起点和切割终点;根据所述切割起点和所述切割终点对所述待解析的视频数据进行裁剪,得到目标视频数据。本方案先通过多种目标数据确定出匹配结果,多种目标数据的识别可提高识别的精准性;再从多个匹配结果确定出待解析视频中的切割起点和切割终点,既可以实现自动判断道路救援的开始与结束(通过切割起点和切割终点可分别实现开启和关闭摄像设备功能),从而可减少摄像设备录制的工作量,也可避免拍摄过多无用的视频数据;同时本方案得到的目标视频数据作为救援证据使用时,可提高获取到的救援证据的可用性,也可减少用户的对道路救援的异议。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种视频数据获取装置,该视频数据获取装置与上述实施例中视频数据获取方法一一对应。如图7所示,该视频数据获取装置包括第一获取模块11、计算模块12、第一确定模块13和裁剪模块14。各功能模块详细说明如下:
第一获取模块11,用于获取目标数据;
计算模块12,用于按预设规则从待解析视频数据中提取视频帧,获取所述视频帧的解析结果,并计算所述解析结果与所述目标数据的匹配结果;
第一确定模块13,用于根据多个所述匹配结果确定所述待解析的视频数据的切割起点和切割终点;
裁剪模块14,用于根据所述切割起点和所述切割终点对所述待解析的视频数据进行裁剪,得到目标视频数据。
进一步地,所述视频数据获取装置还包括:
第二确定模块,用于根据所述目标数据中的所述待救援信息在预设优先级列表中确定一个优先级最高且处于待工作状态的救援人员;
语气分析模块,用于通过所述待救援信息中的所述用户联系方式建立起用户与所述救援人员通话之后,获取所述救援人员进行通话的语音数据,对救援人员的语音数据进行语气分析,得到语气分析结果;
第一判断模块,用于将所述救援人员的语音数据转换为文本数据之后,判断所述文本数据中的服务用语是否达标,并获取服务用语达标的数量;
第一调整模块,用于通过所述语气分析结果以及所述服务用语达标的数量对所述救援人员进行评分,得到第一评分分数,并根据所述第一评分分数对所述救援人员在所述预设优先级列表中的优先级进行调整。
进一步地,所述语气分析模块包括:
匹配子模块,用于自预设声纹库中匹配与所述救援人员一致的声纹特征,所述预设声纹库保存各个所述救援人员的所述声纹特征;
提取子模块,用于根据所述声纹特征从用户与救援人员通话的语音数据中提取出所述救援人员的语音数据;
第一获取子模块,用于对所述救援人员的语音数据进行特征提取,获取多个语音特征;
第二获取子模块,用于采用情绪识别模型分别对各个所述语音特征进行识别,获取情绪识别结果;
确定子模块,用于通过所述情绪识别结果确定所述救援人员的所述语气分析结果。
进一步地,所述第一判断模块包括:
形成子模块,用于提取所述文本数据包含的所述服务用语,并通过所述服务用语形成关键词组;
匹配子模块,用于将所述关键词组与预设关键词组进行匹配,所述预设关键词组已关联于一个达标的结果;
判定子模块,用于在所述关键词组与所述预设关键词组匹配成功时,则判定所述服务用语达标;
上传子模块,用于在所述关键词组与所述预设关键词组匹配失败时,则将用户与救援人员通话的语音数据上传至预设数据库。
进一步地,所述视频数据获取装置还包括:
开启模块,用于通过摄像设备识别到所述待救援信息中的所述待救援车辆信息以及所述目标数据中的所述标识信息,开启所述摄像设备的拍摄功能;
解析模块,用于获取所述摄像设备拍摄的现场救援画面和与救援人员关联的救援信息中的救援人员特征,并解析所述现场救援画面中的人物特征;
第二判断模块,用于判断所述人物特征是否与所述救援人员特征匹配;
第三确定模块,用于若所述人物特征与所述救援人员特征匹配,则确定所述救援人员在所述现场救援画面中的位置;
调节模块,用于根据所述救援人员在所述现场救援画面中的位置调节所述摄像设备的拍摄参数。
进一步地,所述视频数据获取装置还包括:
第一确认模块,用于通过所述目标视频数据确认道路救援涉及到的救援事项,所述目标视频数据包括至少一个所述救援事项;
匹配模块,用于将所述救援事项与所述待救援信息中的所述事故项进行匹配;
第二确认模块,用于当所述救援事项与所述事故项匹配成功时,生成与所述救援事项相关的救援清单,并将所述救援清单发送给所述用户确认;
发送模块,用于当所述救援事项与所述事故项匹配失败时,通过所述待救援信息中的所述用户联系方式建立起所述用户与救援人员通话,在通话过程中识别到所述用户确认所述救援事项无误后,生成与所述救援事项相关的所述救援清单,并将所述救援清单发送给所述用户。
进一步地,所述视频数据获取装置还包括:
第四确定模块,用于获取救援车辆到达所述待救援车辆的位置的最终时间点和所述用户发出救援请求时间点,并根据所述最终时间点和所述用户发出救援请求时间点确定到达时长;
第二获取模块,用于通过所述目标视频数据中的所述切割起点和所述切割终点获取救援人员的救援时长;
第二调整模块,用于通过所述到达时长和所述救援时长对所述救援人员进行评分,得到第二评分分数,并根据所述第二评分分数对所述救援人员在预设优先级列表中的优先级进行重新调整。
关于视频数据获取装置的具体限定可以参见上文中对于视频数据获取方法的限定,在此不再赘述。上述视频数据获取装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储视频数据获取方法中涉及到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种视频数据获取方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中视频数据获取方法的步骤,例如图2所示的步骤S10至步骤S40。或者,处理器执行计算机程序时实现上述实施例中视频数据获取装置的各模块/单元的功能,例如图7所示模块11至模块14的功能。为避免重复,这里不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中视频数据获取方法的步骤,例如图2所示的步骤S10至步骤S40。或者,计算机程序被处理器执行时实现上述实施例中视频数据获取装置的各模块/单元的功能,例如图7所示模块11至模块14的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (9)

1.一种视频数据获取方法,其特征在于,包括:
获取目标数据;
按预设规则从待解析视频数据中提取视频帧,获取所述视频帧的解析结果,并计算所述解析结果与所述目标数据的匹配结果;
所述目标数据包括待救援信息和标识信息,其中,所述待救援信息包括待救援车辆信息;所述按预设规则从待解析的视频数据中提取视频帧,获取所述视频帧的解析结果之前,还包括:
通过摄像设备识别到所述待救援信息中的所述待救援车辆信息以及所述目标数据中的所述标识信息,开启所述摄像设备的拍摄功能;
获取所述摄像设备拍摄的现场救援画面和与救援人员关联的救援信息中的救援人员特征,并解析所述现场救援画面中的人物特征;
判断所述人物特征是否与所述救援人员特征匹配;
若所述人物特征与所述救援人员特征匹配,则确定所述救援人员在所述现场救援画面中的位置;
根据所述救援人员在所述现场救援画面中的位置调节所述摄像设备的拍摄参数;
根据多个所述匹配结果确定所述待解析的视频数据的切割起点和切割终点;
根据所述切割起点和所述切割终点对所述待解析的视频数据进行裁剪,得到目标视频数据。
2.根据权利要求1所述的视频数据获取方法,其特征在于,所述待救援信息还包括用户联系方式;所述获取目标数据之后,还包括:
根据所述目标数据中的所述待救援信息在预设优先级列表中确定一个优先级最高且处于待工作状态的救援人员;
通过所述待救援信息中的所述用户联系方式建立起用户与所述救援人员通话之后,获取所述救援人员进行通话的语音数据,对救援人员的语音数据进行语气分析,得到语气分析结果;
将所述救援人员的语音数据转换为文本数据之后,判断所述文本数据中的服务用语是否达标,并获取服务用语达标的数量;
通过所述语气分析结果以及所述服务用语达标的数量对所述救援人员进行评分,得到第一评分分数,并根据所述第一评分分数对所述救援人员在所述预设优先级列表中的优先级进行调整。
3.根据权利要求2所述的视频数据获取方法,其特征在于,所述获取所述救援人员进行通话的语音数据,对救援人员的语音数据进行语气分析,得到语气分析结果,包括:
自预设声纹库中匹配与所述救援人员一致的声纹特征,所述预设声纹库保存各个所述救援人员的所述声纹特征;
根据所述声纹特征从用户与救援人员通话的语音数据中提取出所述救援人员的语音数据;
对所述救援人员的语音数据进行特征提取,获取多个语音特征;
采用情绪识别模型分别对各个所述语音特征进行识别,获取情绪识别结果;
通过所述情绪识别结果确定所述救援人员的所述语气分析结果。
4.根据权利要求2所述的视频数据获取方法,其特征在于,所述判断所述文本数据中的服务用语是否达标,包括:
提取所述文本数据包含的所述服务用语,并通过所述服务用语形成关键词组;
将所述关键词组与预设关键词组进行匹配,所述预设关键词组已关联于一个达标的结果;
在所述关键词组与所述预设关键词组匹配成功时,则判定所述服务用语达标;
在所述关键词组与所述预设关键词组匹配失败时,则将用户与救援人员通话的语音数据上传至预设数据库。
5.根据权利要求2所述的视频数据获取方法,其特征在于,所述待救援信息还包括事故项;所述根据所述切割起点和所述切割终点对所述待解析的视频数据进行裁剪,得到目标视频数据之后,还包括:
通过所述目标视频数据确认道路救援涉及到的救援事项,所述目标视频数据包括至少一个所述救援事项;
将所述救援事项与所述待救援信息中的所述事故项进行匹配;
当所述救援事项与所述事故项匹配成功时,生成与所述救援事项相关的救援清单,并将所述救援清单发送给所述用户确认;
当所述救援事项与所述事故项匹配失败时,通过所述待救援信息中的所述用户联系方式建立起所述用户与所述救援人员通话,在通话过程中识别到所述用户确认所述救援事项无误后,生成与所述救援事项相关的所述救援清单,并将所述救援清单发送给所述用户。
6.根据权利要求5所述的视频数据获取方法,其特征在于,所述待救援信息还包括用户发出救援请求时间点和待救援车辆的位置;所述根据所述切割起点和所述切割终点对所述待解析的视频数据进行裁剪,得到目标视频数据之后,还包括:
获取救援车辆到达所述待救援车辆的位置的最终时间点和所述用户发出救援请求时间点,并根据所述最终时间点和所述用户发出救援请求时间点确定到达时长;
通过所述目标视频数据中的所述切割起点和所述切割终点获取所述救援人员的救援时长;
通过所述到达时长和所述救援时长对所述救援人员进行评分,得到第二评分分数,并根据所述第二评分分数对所述救援人员在所述预设优先级列表中的所述优先级进行重新调整。
7.一种视频数据获取装置,其特征在于,包括:
第一获取模块,用于获取目标数据;
计算模块,用于按预设规则从待解析视频数据中提取视频帧,获取所述视频帧的解析结果,并计算所述解析结果与所述目标数据的匹配结果;所述目标数据包括待救援信息和标识信息,其中,所述待救援信息包括待救援车辆信息;所述按预设规则从待解析的视频数据中提取视频帧,获取所述视频帧的解析结果之前,还包括:
通过摄像设备识别到所述待救援信息中的所述待救援车辆信息以及所述目标数据中的所述标识信息,开启所述摄像设备的拍摄功能;
获取所述摄像设备拍摄的现场救援画面和与救援人员关联的救援信息中的救援人员特征,并解析所述现场救援画面中的人物特征;
判断所述人物特征是否与所述救援人员特征匹配;
若所述人物特征与所述救援人员特征匹配,则确定所述救援人员在所述现场救援画面中的位置;
根据所述救援人员在所述现场救援画面中的位置调节所述摄像设备的拍摄参数;
第一确定模块,用于根据多个所述匹配结果确定所述待解析的视频数据的切割起点和切割终点;
裁剪模块,用于根据所述切割起点和所述切割终点对所述待解析的视频数据进行裁剪,得到目标视频数据。
8.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述视频数据获取方法。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述视频数据获取方法。
CN201910600035.1A 2019-07-04 2019-07-04 视频数据获取方法、装置、计算机设备及存储介质 Active CN110446061B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910600035.1A CN110446061B (zh) 2019-07-04 2019-07-04 视频数据获取方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910600035.1A CN110446061B (zh) 2019-07-04 2019-07-04 视频数据获取方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN110446061A CN110446061A (zh) 2019-11-12
CN110446061B true CN110446061B (zh) 2023-04-07

Family

ID=68428862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910600035.1A Active CN110446061B (zh) 2019-07-04 2019-07-04 视频数据获取方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN110446061B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111128355B (zh) * 2019-12-20 2024-04-26 创业慧康科技股份有限公司 一种目标事件评估方法及装置
JP7476854B2 (ja) 2021-06-08 2024-05-01 トヨタ自動車株式会社 情報処理装置、プログラム及び情報処理方法
CN115861905B (zh) * 2023-03-01 2023-06-16 鹿马智能科技(上海)有限公司 一种基于物联网的酒店管理系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107933471A (zh) * 2017-12-04 2018-04-20 惠州市德赛西威汽车电子股份有限公司 事故主动呼叫救援的方法及车载自动求救系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010029811A1 (de) * 2010-06-08 2011-12-08 Robert Bosch Gmbh Verfahren zum Ausgeben einer bergungsrelevanten Information sowie System
CN106686404B (zh) * 2016-12-16 2021-02-02 中兴通讯股份有限公司 一种视频分析平台、匹配方法、精准投放广告方法及系统
CN107911748A (zh) * 2017-11-24 2018-04-13 南京融升教育科技有限公司 一种基于人脸识别的视频裁剪方法
CN109743624B (zh) * 2018-12-14 2021-08-17 深圳壹账通智能科技有限公司 视频切割方法、装置、计算机设备和存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107933471A (zh) * 2017-12-04 2018-04-20 惠州市德赛西威汽车电子股份有限公司 事故主动呼叫救援的方法及车载自动求救系统

Also Published As

Publication number Publication date
CN110446061A (zh) 2019-11-12

Similar Documents

Publication Publication Date Title
CN109587360B (zh) 电子装置、应对话术推荐方法和计算机可读存储介质
CN110446061B (zh) 视频数据获取方法、装置、计算机设备及存储介质
US10027804B2 (en) System and method for providing hiring recommendations of agents within a call center
CN109767787B (zh) 情绪识别方法、设备及可读存储介质
US20170323644A1 (en) Speaker identification device and method for registering features of registered speech for identifying speaker
WO2021000497A1 (zh) 检索方法、装置、计算机设备和存储介质
CN107409061A (zh) 语音总结程序
CN111311327A (zh) 基于人工智能的服务评价方法、装置、设备及存储介质
US9646613B2 (en) Methods and systems for splitting a digital signal
KR20200004826A (ko) 음성 대화 기반 콘텍스트 획득 방법 및 기기
Khoury et al. The 2013 speaker recognition evaluation in mobile environment
CN112468659B (zh) 应用于电话客服的质量评价方法、装置、设备及存储介质
US11929078B2 (en) Method and system for user voice identification using ensembled deep learning algorithms
CN111639484A (zh) 坐席通话内容的分析方法
CN114007131A (zh) 视频监控方法、装置及相关设备
CN109242700A (zh) 智能车险报案方法、系统、计算机设备及存储介质
CN112233680A (zh) 说话人角色识别方法、装置、电子设备及存储介质
CN113688221A (zh) 基于模型的话术推荐方法、装置、计算机设备和存储介质
Sapra et al. Emotion recognition from speech
KR102312993B1 (ko) 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치
US10872615B1 (en) ASR-enhanced speech compression/archiving
CN114999533A (zh) 基于情绪识别的智能问答方法、装置、设备及存储介质
CN114493902A (zh) 多模态信息异常监控方法、装置、计算机设备及存储介质
CN113095204B (zh) 双录数据质检方法、装置及系统
Johnson et al. Automatic dialect density estimation for african american english

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant