CN111639234A - 用于挖掘核心实体关注点的方法和装置 - Google Patents
用于挖掘核心实体关注点的方法和装置 Download PDFInfo
- Publication number
- CN111639234A CN111639234A CN202010476601.5A CN202010476601A CN111639234A CN 111639234 A CN111639234 A CN 111639234A CN 202010476601 A CN202010476601 A CN 202010476601A CN 111639234 A CN111639234 A CN 111639234A
- Authority
- CN
- China
- Prior art keywords
- candidate
- interest
- points
- determining
- core entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2216/00—Indexing scheme relating to additional aspects of information retrieval not explicitly covered by G06F16/00 and subgroups
- G06F2216/03—Data mining
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Animal Behavior & Ethology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了用于挖掘核心实体关注点的方法和装置,涉及知识图谱、深度学习领域。具体实现方案为:对目标视频进行预处理,得到待处理数据;确定待处理数据中包括的候选核心实体;根据待处理数据确定目标视频的候选关注点;根据候选核心实体和候选关注点确定候选核心实体关注点;从候选核心实体关注点中确定目标视频的核心实体关注点。该实施方式提高了挖掘核心实体关注点的效率。
Description
技术领域
本申请实施例涉及计算机技术领域,尤其涉及视频内容理解技术领域。
背景技术
随着信息技术的发展,以及各类视频类应用的日益火爆,视频将成为最主要的信息传播方式,广泛应用与人际交流、社会生活、工业生产的各个方面。核心实体关注点可以表示视频中所包含的核心实体以及围绕核心实体进行描述的实体属性、相关话题或事件等关注点信息。核心实体关注点的标注结果可以用来确定视频内容,以及进行视频推荐。
面对于海量的视频内容,仅靠人工处理是无法完成的,因此迫切需要通过计算机技术实现对于视频内容的智能化理解,进而智能化的挖掘出视频的核心实体关注点。
发明内容
本申请实施例提出了用于挖掘核心实体关注点的方法、装置、设备以及存储介质。
第一方面,本申请的一些实施例提供了一种用于挖掘核心实体关注点的方法,该方法包括:对目标视频进行预处理,得到待处理数据;确定待处理数据中包括的候选核心实体;根据待处理数据确定目标视频的候选关注点;根据候选核心实体和候选关注点确定候选核心实体关注点;从候选核心实体关注点中确定目标视频的核心实体关注点。
第二方面,本申请的一些实施例提供了一种用于挖掘核心实体关注点的装置,该装置包括:预处理单元,被配置成对目标视频进行预处理,得到待处理数据;第一确定单元,被配置成确定待处理数据中包括的候选核心实体;第二确定单元,被配置成根据待处理数据确定目标视频的候选关注点;第三确定单元,被配置成根据候选核心实体和候选关注点确定候选核心实体关注点;第四确定单元,被配置成从候选核心实体关注点中确定目标视频的核心实体关注点。
第三方面,本申请的一些实施例提供了一种设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得上述一个或多个处理器实现如第一方面上述的方法。
第四方面,本申请的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面上述的方法。
根据本申请的技术,实现了核心实体关注点的自动挖掘,提高了挖掘核心实体关注点的效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请的一些可以应用于其中的示例性系统架构图;
图2是根据本申请第一实施例的示意图;
图3是根据本申请第二实施例的示意图;
图4是根据本申请第三实施例的示意图;
图5是根据本申请第四实施例的示意图;
图6是适于用来实现本申请实施例的用于挖掘核心实体关注点的方法的电子设备的结构示意图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于挖掘核心实体关注点的方法或用于挖掘核心实体关注点的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种客户端应用,例如视频播放类应用、新闻资讯类应用、社交类应用、搜索类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上安装的应用提供支持的后台服务器,服务器105可以对目标视频进行预处理,得到待处理数据;确定待处理数据中包括的候选核心实体;根据待处理数据确定目标视频的候选关注点;根据候选核心实体和候选关注点确定候选核心实体关注点;从候选核心实体关注点中确定目标视频的核心实体关注点。
需要说明的是,本申请实施例所提供的用于挖掘核心实体关注点的方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,用于挖掘核心实体关注点的装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于挖掘核心实体关注点的方法的一个实施例的流程200。该用于挖掘核心实体关注点的方法,包括以下步骤:
步骤201,对目标视频进行预处理,得到待处理数据。
在本实施例中,用于挖掘核心实体关注点的方法执行主体(例如图1所示的服务器或终端)可以对目标视频进行预处理,得到至少一种种类型的待处理数据。目标视频可以是任何待挖掘其核心实体关注点的视频。上述执行主体可以提取目标视频的图像帧得到目标视频的视觉数据,也可以通过ASR(Automatic Speech Recognition,自动语音识别),得到针对目标视频的音频的识别结果,还可以通过OCR(Optical Character Recognition,光学字符识别),识别出目标视频中的标题、字幕等包含的文字。
步骤202,确定待处理数据中包括的候选核心实体。
在本实施例中,上述执行主体可以针对待处理数据的类型,采用相应的方法,例如一些图像处理、文本处理方法,确定步骤201中得到的待处理数据中包括的候选核心实体。实体是指能够独立存在的并能够作为一切属性的基础和万物本原的真实存在的物质或概念,通常可以指代具体的事物、主体和现象的支持者等,例如人名、物名、地名、机构名以及概念等。核心实体可以是目标视频中较为关键的,可以反映视频核心内容的实体。
在本实施例的一些可选实现方式中,待处理数据的类型包括视觉数据;以及确定待处理数据中包括的候选核心实体,可以包括:对视觉数据进行人脸识别和/或物体识别;根据识别结果确定候选核心实体。此外,上述执行主体还可以使用视频文本关键词提取等技术提取视频中的主要实体作为候选核心实体,如识别出视频中出现的人物,动物、物品等。上述执行主体在根据识别结果确定候选核心实体时,还可以参考人和/或物体在视频中出现的时间或在视频中出现的位置等信息。例如,人物甲在视频的中心区域内出现的时间超过预设时间阈值,可以将人物甲确定为候选核心实体。本实现方式通过人脸识别和/或物体识别确定候选核心实体,进一步丰富了确定候选核心实体的方法。
在本实施例的一些可选实现方式中,待处理数据的类型包括识别目标视频的音频得到的文本数据和/或识别目标视频的图像包括的文字得到的文本数据,目标视频的图像可以包括字幕、标题等文字。上述执行主体可以通过文本实体识别算法确定候选核心实体。文本实体识别算法可以采用tf-idf(term frequency-inverse document frequency,信息检索与数据挖掘)算法、基于term(提及词)重要度的wordrank(文本排序)算法、此外,还可以采用XGBoost(eXtreme Gradient Boosting,极端梯度提升)、BiLSTM-CRF(Bidirectional Long Short-Term Memory Network Conditional Randomield,基于双向长短期记忆网络条件随机场)等模型,基于预先标注出候选核心实体的训练样本训练得到的。本实现方式将待处理数据的类型进行了扩充,进一步丰富了确定候选核心实体和候选关注点的方法。
步骤203,根据待处理数据确定目标视频的候选关注点。
在本实施例中,上述执行主体可以根据步骤201中得到的待处理数据确定目标视频的候选关注点。关注点可以包括实体的某一侧面的信息,例如,实体的属性、相关话题或事件等。上述执行主体可以视频场景和/或动作识别,识别视频中的场景和/或动作事件作为视频的关注点。例如,美食教学视频会把厨房、切菜的动作等作为视频的关注点。上述执行主体也可以通过预先建立的关注点图谱识别出目标视频的文字数据中包括的关注点。需要说明的是,本申请中步骤203也可以先于步骤202执行,在根据待处理数据确定目标视频的候选关注点时可以参考候选核心实体的确定结果,在根据待处理数据确定目标视频的候选核心实体时可以参考候选关注点的确定结果。
在本实施例的一些可选实现方式中,上述执行主体可以获取预先构建的实体-关注点知识图谱,实体-关注点知识图谱中可记录有不同的实体及其分别对应的关注点信息。可通过将实体-关注点知识图谱与待处理数据进行显式匹配,若待处理数据中记录有某个关注点及该关注点对应的实体,则可将该关注点作为候选关注点。此外,上述执行主体还可以根据预先构建的模型对候选关注点进行预测。模型可以采用基于N元模型(N-gram)和层次Softmax的多分类模型等结构,基于预先标注出候选关注点的训练样本训练得到的。
在本实施例的一些可选实现方式中,根据待处理数据确定目标视频的候选关注点,包括:确定目标视频的分类信息;根据预先建立的分类信息与关注点的对应关系,确定目标视频的候选关注点。目标视频的分类信息可以指示目标视频所属领域,例如影视剧情、影视片段、美食做法、美食展示、动漫片段。分类信息与关注点的对应关系可以是通过聚类等操作得到,也可以通过人工整合得到,例如,汽车领域的视频主要对应的关注点可以包括汽车评测、汽车维修、驾考教学等。本实现方式通过确定目标视频的分类信息,而后根据预先建立的分类信息与关注点的对应关系,确定目标视频的候选关注点,进一步丰富了确定候选关注点的方法。
在本实现方式中,可以根据视频上传用户的指示或通过视频分类算法确定目标视频的分类信息,视频分类算法的输入可以包括目标视频的关键帧或每隔预设时间间隔提取出的视频帧,而后利用预先训练的特征提取网络,如卷积神经网络,从输入的图像帧中提取出特征,通过注意力机制加权后的双向长短期记忆网络序列模型对特征进行序列建模,最后融合进行分类,得到目标视频的分类信息。此外,视频分类算法的输入也可以包括识别目标视频的音频得到的文本数据和/或识别目标视频的图像包括的文字得到的文本数据,同样可以对文本数据进行特征提取和分类,得到目标视频的分类信息。
在本实施例的一些可选实现方式中,对应关系包括经由以下步骤建立的对应关系:获取目标网站的历史查询语句;识别所获取的历史查询语句的分类信息与关注点;针对识别出的分类信息与关注点建立对应关系。目标网站可以包括任何可以获取到其历史查询语句的网站,例如,视频播放网站,搜索引擎网站。分类信息与关注点的对应关系可以通过策略(schema)体现,即可以直接建立识别出的分类信息与关注点的对应关系,也可以通过对识别出的分类信息与关注点进行聚类和整理,得到分类信息与关注点的对应关系。以分类信息为美食菜谱为例,对应的关注点可以包括美食做法、美食菜谱等。本实现方式通过确定目标视频的分类信息,而后根据预先建立的分类信息与关注点的对应关系,确定目标视频的候选关注点,进一步丰富了确定候选关注点的方法。本实现方式通过对历史查询语句的分析,实现了对分类信息与关注点的对应关系的自动建立,进一步提高了关注点挖掘效率。
步骤204,根据候选核心实体和候选关注点确定候选核心实体关注点。
在本实施例中,上述执行主体可以根据步骤202中得到的候选核心实体和步骤203中得到的候选关注点确定候选核心实体关注点。具体的,上述执行主体可以直接组合候选核心实体和候选关注点得到候选核心实体关注点,也可以对候选核心实体和候选关注点的组合结果进一步筛选得到候选核心实体关注点。
在本实施例的一些可选实现方式中,根据候选核心实体和候选关注点确定候选核心实体关注点,包括:响应于根据预先训练的分类模型和/或预先建立的关注点信息与实体信息的匹配关系,确定候选核心实体与候选关注点匹配,将候选核心实体与候选关注点进行组合,得到目标视频的候选核心实体关注点。分类模型可以包括基于XGBoost或Softmax建立的分类模型,利用特征工程的方法,确定候选核心实体与候选关注点是否匹配。本实现方式通过对候选核心实体与候选关注点是否匹配进行判断,进一步提高了确定出的候选核心实体关注点的准确性。
在本实施例的一些可选实现方式中,匹配关系包括经由以下步骤建立的匹配关系:获取目标网站的历史查询语句;识别所获取的历史查询语句包括的核心实体与关注点;对识别出的实体和关注点进行聚类操作;根据聚类结果建立匹配关系。作为示例,历史查询语句包括“蛋炒饭怎么做”、“蛋糕如何烤”,对识别出的实体和关注点进行聚类操作,“蛋炒饭”、“蛋糕”可以聚类为美食,“怎么做”、“如何烤”可以聚类为做法,即类型为美食的核心实体与类型为做法的关注点是匹配的。此外,在得到目标网站的历史查询语句后,还可以对其进行预处理,例如,可以对其进行清洗、无效过滤、领域识别。本实现方式通过对历史查询语句的分析,实现了对匹配关系的自动建立,进一步提高了实体关注点挖掘效率。
步骤205,从候选核心实体关注点中确定目标视频的核心实体关注点。
在本实施例中,上述执行主体可以从步骤204中得到的候选核心实体关注点中确定目标视频的核心实体关注点。上述执行主体可以直接将候选核心实体关注点确定为目标视频的核心实体关注点,也可以基于预先设置的筛选标准从候选核心实体关注点中筛选得到目标视频的核心实体关注点。从基础技术角度来说,实体关注点作为连接实体和话题的纽带(例如明星甲(实体)->明星甲离婚(实体关注点)->明星离婚(话题)),丰富了实体在资源中的表征信息,并且有利于向话题进行泛化。从应用角度来说,核心实体关注点的挖掘结果可以用来进行可解释的推荐等。
本实施例中通过对目标视频进行预处理,得到待处理数据,而后确定待处理数据中包括的候选核心实体,并根据待处理数据确定目标视频的候选关注点,最后根据候选核心实体和候选关注点确定候选核心实体关注点,从候选核心实体关注点中确定目标视频的核心实体关注点,实现了核心实体关注点的自动挖掘,提高了核心实体关注点的挖掘效率。
进一步参考图3,其示出了用于挖掘核心实体关注点的方法的又一个实施例的流程300。该用于挖掘核心实体关注点的方法的流程300,包括以下步骤:
步骤301,对目标视频进行预处理,得到待处理数据。
在本实施例中,用于挖掘核心实体关注点的方法执行主体(例如图1所示的服务器或终端)可以对目标视频进行预处理,得到待处理数据。待处理数据的类型可以包括识别目标视频的音频得到的文本数据和/或识别目标视频的图像包括的文字得到的文本数据。
步骤302,基于预先训练的编码模型对文本数据进行编码操作,得到文本数据的特征向量。
在本实施例中,上述执行主体可以基于预先训练的编码模型对步骤301中得到的文本数据进行编码操作,得到文本数据的特征向量。编码模型可以用于表征文本数据与文本数据的特征向量之间的对应关系,可以采用各种神经网络结构构造编码模型,作为示例,可以使用BERT(Bidirectional Encoder Representations from Transformers,基于Transformer(变形器)模型的双向编码器表征)。
在本实施例的一些可选实现方式中,可以采用词向量与字向量的混合序列作为文本数据的特征向量,以“大学生”为例,对其进行字嵌入分别得到“大”、“学”、“生”三个单字的字向量,词嵌入得到“大学生”的词向量,可以将“大学生”的词向量重复三次,利用“大”、“学”、“生”三个单字的字向量分别与“大学生”的词向量混合后生成该词语对应的字向量序列。使用词向量跟字向量的混合序列作为文本数据的特征向量能更好的捕捉语义信息。
步骤303,将特征向量输入预先训练的核心实体标注模型。
在本实施例中,上述执行主体可以将步骤302中得到的特征向量输入预先训练的核心实体标注模型。核心实体标注模型用于标注输入文本中的候选核心实体的位置。其中,核心实体标注模型可以采用各种神经网络结构,例如可以采用卷积神经网络和全连接层的组合。在训练时可以将已标注核心实体和对应的关注点的文本作为样本。候选核心实体的位置可以包括起始位置,或者核心实体的起始位置和结束位置。
在本实施例的一些可选实现方式中,上述执行主体可以采用双指针分别标注出候选核心实体的起始位置和结束位置。在这里,双指针包括用于标注起始位置的指针和用于标注结束位置的指针。具体地,可以利用上述核心实体标注网络预测输入文本中每个字作为核心实体的起始位置的概率以及作为核心实体的结束位置的概率。然后根据各字作为核心实体的起始位置的概率以及作为核心实体的结束位置的概率确定作为核心实体的字串。可以采用一个二分类模型判断每个字是否为核心实体的起始位置,采用另一个二分类模型判断每个字是否为核心实体的结束位置,采用双指针标注对于较长的实体预测结果更准确。
步骤304,根据核心实体标注模型的输出确定候选核心实体。
在本实施例中,上述执行主体可以根据步骤303中核心实体标注模型的输出确定候选核心实体。作为示例,上述执行主体可以根据核心实体标注模型输出的候选核心实体的位置,确定候选核心实体。本实施例通过预先建立的核心实体标注模型确定候选核心实体,进一步丰富了候选核心实体的确定方法。
步骤305,根据候选核心实体的特征向量与文本数据的特征向量确定预先训练的关注点标注模型的输入向量。
在本实施例中,上述执行主体可以根据步骤304中得到的候选核心实体的特征向量与文本数据的特征向量确定预先训练的关注点标注模型的输入向量。上述执行主体可以直接将候选核心实体的特征向量与文本数据的特征向量拼接得到关注点标注模型的输入向量,也可以将候选核心实体的特征向量进行池化等处理再与文本数据的特征向量拼接得到关注点标注模型的输入向量,还可以进一步处理拼接后的向量得到关注点标注模型的输入向量。
作为示例,关注点标注模型可以包括预先训练的用于标注关注点位置的神经网络。在训练时可以将已标注核心实体和对应的关注点的文本作为样本,关注点标注模型在训练过程中学习核心实体与核心实体的关注点之间的关系。
此外,上述执行主体在通过核心实体标注模型标注出候选核心实体后,也可以通过本申请其他实施例中记载的方法确定候选关注点,同样,上述执行主体也可以通过本申请其他实施例中记载的方法确定候选核心实体,并根据确定出的候选核心实体的特征向量与文本数据的特征向量确定预先训练的关注点标注模型的输入向量。
步骤306,将输入向量输入关注点标注模型,根据关注点标注模型的输出确定目标视频的候选关注点。
在本实施例中,上述执行主体可以将步骤305中得到的输入向量输入关注点标注模型,根据关注点标注模型的输出确定目标视频的候选关注点。其中,关注点标注模型可以采用各种神经网络结构,例如可以采用卷积神经网络和全连接层的组合。候选关注点的位置可以包括起始位置,或者候选关注点的起始位置和结束位置。在本实施例的一些可选实现方式中,上述执行主体可以采用双指针分别标注出候选关注点的起始位置和结束位置。
步骤307,根据候选核心实体和候选关注点确定候选核心实体关注点。
步骤308,从候选核心实体关注点中确定目标视频的核心实体关注点。
在本实施例中,步骤301、步骤307、步骤308的操作与步骤201、步骤204、步骤205的操作基本相同,在此不再赘述。
从图3中可以看出,与图2对应的实施例相比,本实施例中的用于挖掘核心实体关注点的方法的流程300中基于概率图思想的先标注核心实体后标注关注点,进一步提高了关注点标注的准确率。此外,上述执行主体也可以先使用关注点标注模型标注出关注点,再结合关注点标注结果进行核心实体的标注。
进一步参考图4,其示出了用于挖掘核心实体关注点的方法的又一个实施例的流程400。该用于挖掘核心实体关注点的方法的流程400,包括以下步骤:
步骤401,对目标视频进行预处理,得到待处理数据。
在本实施例中,用于挖掘核心实体关注点的方法执行主体(例如图1所示的服务器或终端)可以对目标视频进行预处理,得到待处理数据,待处理数据的类型包括至少两种。
步骤402,确定待处理数据中包括的候选核心实体。
步骤403,根据待处理数据确定目标视频的候选关注点。
步骤404,根据候选核心实体和候选关注点确定候选核心实体关注点。
步骤405,根据候选核心实体关注点被确定的途径,确定候选核心实体关注点的分数。
在本实施例中,上述执行主体可以根据步骤405中得到的候选核心实体关注点被确定的途径,确定候选核心实体关注点的分数。作为示例,通过途径1确定出候选核心实体关注点1,通过途径2确定出候选核心实体关注点1和候选核心实体关注点2,预先设置了通过途径1确定出候选核心实体关注点的分数为0.5,通过途径2确定出候选核心实体关注点的分数为0.4,则候选核心实体关注点1最终的分数可以是0.9,候选核心实体关注点2最终的分数可以是0.4。确定候选核心实体关注点的途径,以及各个途径对应的分数可以根据实际需要进行设置。
作为示例,确定候选核心实体关注点的途径可以包括:a.对视觉数据进行人脸识别和/或物体识别,得到候选核心实体,根据预先建立的分类信息与关注点的对应关系,确定目标视频的候选关注点,组合候选核心实体与候选关注点得到候选核心实体关注点;b.对视觉数据进行人脸识别和/或物体识别,得到候选核心实体,根据预先建立的关注点图确定候选关注点,若候选核心实体与候选关注点匹配则将二者的组合确定为候选核心实体关注点;c.基于预先训练的编码模型对文本数据进行编码操作,得到文本数据的特征向量,将特征向量输入预先训练的核心实体标注模型,根据核心实体标注模型的输出确定候选核心实体,根据候选核心实体的特征向量与文本数据的特征向量确定预先训练的关注点标注模型的输入向量,将输入向量输入关注点标注模型,根据关注点标注模型的输出确定目标视频的候选关注点,组合候选核心实体与候选关注点得到候选核心实体关注点。d.基于预先训练的编码模型对文本数据进行编码操作,得到文本数据的特征向量,将特征向量输入预先训练的关注点标注模型,根据关注点标注模型的输出确定候选关注点,根据候选关注点的特征向量与文本数据的特征向量确定预先训练的核心实体标注模型的输入向量,将输入向量输入核心实体标注模型,根据核心实体标注模型的输出确定目标视频的候选核心实体,组合候选核心实体与候选关注点得到候选核心实体关注点。
步骤406,响应于确定候选核心实体关注点的分数大于预设阈值,将候选核心实体关注点确定为目标视频的核心实体关注点。
在本实施例中,上述执行主体可以响应于确定候选核心实体关注点的分数大于预设阈值,将候选核心实体关注点确定为目标视频的核心实体关注点。
在本实施例中,步骤401、步骤402、步骤403、步骤404的操作与步骤201、步骤202、步骤203、步骤204的操作基本相同,在此不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于挖掘核心实体关注点的方法的流程400中获取到至少两种类型的待处理数据,并根据候选核心实体关注点被确定的途径,确定候选核心实体关注点的分数,以分数为依据确定目标视频的核心实体关注点,进一步提高了挖掘出的核心实体关注点的准确性。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于挖掘核心实体关注点的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于挖掘核心实体关注点的装置500包括:预处理单元501、第一确定单元502、第二确定单元503、第三确定单元504、第四确定单元505。其中,预处理单元,被配置成对目标视频进行预处理,得到待处理数据;第一确定单元,被配置成确定待处理数据中包括的候选核心实体;第二确定单元,被配置成根据待处理数据确定目标视频的候选关注点;第三确定单元,被配置成根据候选核心实体和候选关注点确定候选核心实体关注点;第四确定单元,被配置成从候选核心实体关注点中确定目标视频的核心实体关注点。
在本实施例中,用于挖掘核心实体关注点的装置500的预处理单元501、第一确定单元502、第二确定单元503、第三确定单元504、第四确定单元505的具体处理可以参考图2对应实施例中的步骤201、步骤202、步骤203、步骤204和步骤205。
在本实施例的一些可选实现方式中,待处理数据的类型包括视觉数据;以及第一确定单元,进一步被配置成:对视觉数据进行人脸识别和/或物体识别;根据识别结果确定候选核心实体。
在本实施例的一些可选实现方式中,第二确定单元,进一步被配置成:确定目标视频的分类信息;根据预先建立的分类信息与关注点的对应关系,确定目标视频的候选关注点。
在本实施例的一些可选实现方式中,装置还包括对应关系建立单元,对应关系建立单元被配置成:获取目标网站的历史查询语句;识别所获取的历史查询语句的分类信息与关注点;针对识别出的分类信息与关注点建立对应关系。
在本实施例的一些可选实现方式中,待处理数据的类型包括识别目标视频的音频得到的文本数据和/或识别目标视频的图像包括的文字得到的文本数据。
在本实施例的一些可选实现方式中,第一确定单元,进一步被配置成:基于预先训练的编码模型对文本数据进行编码操作,得到文本数据的特征向量;将特征向量输入预先训练的核心实体标注模型;根据核心实体标注模型的输出确定候选核心实体。
在本实施例的一些可选实现方式中,第二确定单元,进一步被配置成:根据候选核心实体的特征向量与文本数据的特征向量确定预先训练的关注点标注模型的输入向量;将输入向量输入关注点标注模型,根据关注点标注模型的输出确定目标视频的候选关注点。
在本实施例的一些可选实现方式中,第三确定单元,进一步被配置成:响应于根据预先训练的分类模型和/或预先建立的关注点信息与实体信息的匹配关系,确定候选核心实体与候选关注点匹配,将候选核心实体与候选关注点进行组合,得到目标视频的候选核心实体关注点。
在本实施例的一些可选实现方式中,装置还包括匹配关系建立单元,匹配关系建立单元被配置成:获取目标网站的历史查询语句;识别所获取的历史查询语句包括的核心实体与关注点;对识别出的实体和关注点进行聚类操作;根据聚类结果建立匹配关系。
在本实施例的一些可选实现方式中,待处理数据的类型包括至少两种;以及第四确定单元,进一步被配置成:根据候选核心实体关注点被确定的途径,确定候选核心实体关注点的分数;响应于确定候选核心实体关注点的分数大于预设阈值,将候选核心实体关注点确定为目标视频的核心实体关注点。
本申请的上述实施例提供的装置,通过对目标视频进行预处理,得到待处理数据;确定待处理数据中包括的候选核心实体;根据待处理数据确定目标视频的候选关注点;根据候选核心实体和候选关注点确定候选核心实体关注点;从候选核心实体关注点中确定目标视频的核心实体关注点,提高了挖掘核心实体关注点的效率。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的用于挖掘核心实体关注点的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的用于挖掘核心实体关注点的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的用于挖掘核心实体关注点的方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的用于挖掘核心实体关注点的方法对应的程序指令/模块(例如,附图5所示的预处理单元501、第一确定单元502、第二确定单元503、第三确定单元504、第四确定单元505)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的用于挖掘核心实体关注点的方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据用于挖掘核心实体关注点的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至用于挖掘核心实体关注点的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
用于挖掘核心实体关注点的方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与用于挖掘核心实体关注点的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,提高了挖掘核心实体关注点的效率。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (22)
1.一种用于挖掘核心实体关注点的方法,包括:
对目标视频进行预处理,得到待处理数据;
确定所述待处理数据中包括的候选核心实体;
根据所述待处理数据确定所述目标视频的候选关注点;
根据所述候选核心实体和所述候选关注点确定候选核心实体关注点;
从所述候选核心实体关注点中确定所述目标视频的核心实体关注点。
2.根据权利要求1所述的方法,其中,所述待处理数据的类型包括视觉数据;以及
所述确定所述待处理数据中包括的候选核心实体,包括:
对所述视觉数据进行人脸识别和/或物体识别;
根据识别结果确定所述候选核心实体。
3.根据权利要求1所述的方法,其中,所述根据所述待处理数据确定所述目标视频的候选关注点,包括:
确定所述目标视频的分类信息;
根据预先建立的分类信息与关注点的对应关系,确定所述目标视频的候选关注点。
4.根据权利要求3所述的方法,其中,所述对应关系包括经由以下步骤建立的对应关系:
获取目标网站的历史查询语句;
识别所获取的历史查询语句的分类信息与关注点;
针对识别出的分类信息与关注点建立所述对应关系。
5.根据权利要求1所述的方法,其中,所述待处理数据的类型包括识别所述目标视频的音频得到的文本数据和/或识别所述目标视频的图像包括的文字得到的文本数据。
6.根据权利要求5所述的方法,其中,所述确定所述待处理数据中包括的候选核心实体,包括:
基于预先训练的编码模型对文本数据进行编码操作,得到所述文本数据的特征向量;
将所述特征向量输入预先训练的核心实体标注模型;
根据所述核心实体标注模型的输出确定候选核心实体。
7.根据权利要求6所述的方法,其中,所述根据所述待处理数据确定所述目标视频的候选关注点,包括:
根据所述候选核心实体的特征向量与所述文本数据的特征向量确定预先训练的关注点标注模型的输入向量;
将所述输入向量输入所述关注点标注模型,根据所述关注点标注模型的输出确定所述目标视频的候选关注点。
8.根据权利要求1所述的方法,其中,所述根据所述候选核心实体和所述候选关注点确定候选核心实体关注点,包括:
响应于根据预先训练的分类模型和/或预先建立的关注点信息与实体信息的匹配关系,确定所述候选核心实体与所述候选关注点匹配,将所述候选核心实体与所述候选关注点进行组合,得到所述目标视频的候选核心实体关注点。
9.根据权利要求8所述的方法,其中,所述匹配关系包括经由以下步骤建立的匹配关系:
获取目标网站的历史查询语句;
识别所获取的历史查询语句包括的核心实体与关注点;
对识别出的实体和关注点进行聚类操作;
根据聚类结果建立所述匹配关系。
10.根据权利要求1-9中任一项所述的方法,其中,所述待处理数据的类型包括至少两种;以及
所述从所述候选核心实体关注点中确定所述目标视频的核心实体关注点,包括:
根据所述候选核心实体关注点被确定的途径,确定所述候选核心实体关注点的分数;
响应于确定所述候选核心实体关注点的分数大于预设阈值,将所述候选核心实体关注点确定为所述目标视频的核心实体关注点。
11.一种用于挖掘核心实体关注点的装置,包括:
预处理单元,被配置成对目标视频进行预处理,得到待处理数据;
第一确定单元,被配置成确定所述待处理数据中包括的候选核心实体;
第二确定单元,被配置成根据所述待处理数据确定所述目标视频的候选关注点;
第三确定单元,被配置成根据所述候选核心实体和所述候选关注点确定候选核心实体关注点;
第四确定单元,被配置成从所述候选核心实体关注点中确定所述目标视频的核心实体关注点。
12.根据权利要求11所述的装置,其中,所述待处理数据的类型包括视觉数据;以及
所述第一确定单元,进一步被配置成:
对所述视觉数据进行人脸识别和/或物体识别;
根据识别结果确定所述候选核心实体。
13.根据权利要求11所述的装置,其中,所述第二确定单元,进一步被配置成:
确定所述目标视频的分类信息;
根据预先建立的分类信息与关注点的对应关系,确定所述目标视频的候选关注点。
14.根据权利要求13所述的装置,其中,所述装置还包括对应关系建立单元,所述对应关系建立单元被配置成:
获取目标网站的历史查询语句;
识别所获取的历史查询语句的分类信息与关注点;
针对识别出的分类信息与关注点建立所述对应关系。
15.根据权利要求11所述的装置,其中,所述待处理数据的类型包括识别所述目标视频的音频得到的文本数据和/或识别所述目标视频的图像包括的文字得到的文本数据。
16.根据权利要求15所述的装置,其中,所述第一确定单元,进一步被配置成:
基于预先训练的编码模型对文本数据进行编码操作,得到所述文本数据的特征向量;
将所述特征向量输入预先训练的核心实体标注模型;
根据所述核心实体标注模型的输出确定候选核心实体。
17.根据权利要求16所述的装置,其中,所述第二确定单元,进一步被配置成:
根据所述候选核心实体的特征向量与所述文本数据的特征向量确定预先训练的关注点标注模型的输入向量;
将所述输入向量输入所述关注点标注模型,根据所述关注点标注模型的输出确定所述目标视频的候选关注点。
18.根据权利要求11所述的装置,其中,所述第三确定单元,进一步被配置成:
响应于根据预先训练的分类模型和/或预先建立的关注点信息与实体信息的匹配关系,确定所述候选核心实体与所述候选关注点匹配,将所述候选核心实体与所述候选关注点进行组合,得到所述目标视频的候选核心实体关注点。
19.根据权利要求18所述的装置,其中,所述装置还包括匹配关系建立单元,所述匹配关系建立单元被配置成:
获取目标网站的历史查询语句;
识别所获取的历史查询语句包括的核心实体与关注点;
对识别出的实体和关注点进行聚类操作;
根据聚类结果建立所述匹配关系。
20.根据权利要求11-19中任一项所述的装置,其中,所述待处理数据的类型包括至少两种;以及
所述第四确定单元,进一步被配置成:
根据所述候选核心实体关注点被确定的途径,确定所述候选核心实体关注点的分数;
响应于确定所述候选核心实体关注点的分数大于预设阈值,将所述候选核心实体关注点确定为所述目标视频的核心实体关注点。
21.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010476601.5A CN111639234B (zh) | 2020-05-29 | 2020-05-29 | 用于挖掘核心实体关注点的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010476601.5A CN111639234B (zh) | 2020-05-29 | 2020-05-29 | 用于挖掘核心实体关注点的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111639234A true CN111639234A (zh) | 2020-09-08 |
CN111639234B CN111639234B (zh) | 2023-06-27 |
Family
ID=72329622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010476601.5A Active CN111639234B (zh) | 2020-05-29 | 2020-05-29 | 用于挖掘核心实体关注点的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111639234B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112434510A (zh) * | 2020-11-24 | 2021-03-02 | 北京字节跳动网络技术有限公司 | 一种信息处理方法、装置、电子设备和存储介质 |
CN113297394A (zh) * | 2021-06-29 | 2021-08-24 | 中国人民解放军国防科技大学 | 基于知识图谱的数据链网络保障方案智能推荐方法及应用 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140244550A1 (en) * | 2013-02-28 | 2014-08-28 | Microsoft Corporation | Posterior probability pursuit for entity disambiguation |
US20170091320A1 (en) * | 2015-09-01 | 2017-03-30 | Panjiva, Inc. | Natural language processing for entity resolution |
CN107798136A (zh) * | 2017-11-23 | 2018-03-13 | 北京百度网讯科技有限公司 | 基于深度学习的实体关系抽取方法、装置及服务器 |
CN108829893A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 确定视频标签的方法、装置、存储介质和终端设备 |
CN108959550A (zh) * | 2018-06-29 | 2018-12-07 | 北京百度网讯科技有限公司 | 用户关注点挖掘方法、装置、设备及计算机可读介质 |
CN109033464A (zh) * | 2018-08-31 | 2018-12-18 | 北京字节跳动网络技术有限公司 | 用于处理信息的方法和装置 |
CN110245259A (zh) * | 2019-05-21 | 2019-09-17 | 北京百度网讯科技有限公司 | 基于知识图谱的视频打标签方法及装置、计算机可读介质 |
CN110263180A (zh) * | 2019-06-13 | 2019-09-20 | 北京百度网讯科技有限公司 | 意图知识图谱生成方法、意图识别方法及装置 |
CN110377748A (zh) * | 2019-06-13 | 2019-10-25 | 北京百度网讯科技有限公司 | 实体关注点挖掘方法、装置、计算机设备及存储介质 |
US10496752B1 (en) * | 2018-01-04 | 2019-12-03 | Facebook, Inc. | Consumer insights analysis using word embeddings |
CN110532433A (zh) * | 2019-09-03 | 2019-12-03 | 北京百度网讯科技有限公司 | 视频场景的实体识别方法、装置、电子设备和介质 |
CN110555137A (zh) * | 2018-03-31 | 2019-12-10 | 华为技术有限公司 | 一种标签补齐方法及装置 |
CN111125435A (zh) * | 2019-12-17 | 2020-05-08 | 北京百度网讯科技有限公司 | 视频标签的确定方法、装置和计算机设备 |
-
2020
- 2020-05-29 CN CN202010476601.5A patent/CN111639234B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140244550A1 (en) * | 2013-02-28 | 2014-08-28 | Microsoft Corporation | Posterior probability pursuit for entity disambiguation |
US20170091320A1 (en) * | 2015-09-01 | 2017-03-30 | Panjiva, Inc. | Natural language processing for entity resolution |
CN107798136A (zh) * | 2017-11-23 | 2018-03-13 | 北京百度网讯科技有限公司 | 基于深度学习的实体关系抽取方法、装置及服务器 |
US10496752B1 (en) * | 2018-01-04 | 2019-12-03 | Facebook, Inc. | Consumer insights analysis using word embeddings |
CN110555137A (zh) * | 2018-03-31 | 2019-12-10 | 华为技术有限公司 | 一种标签补齐方法及装置 |
CN108829893A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 确定视频标签的方法、装置、存储介质和终端设备 |
CN108959550A (zh) * | 2018-06-29 | 2018-12-07 | 北京百度网讯科技有限公司 | 用户关注点挖掘方法、装置、设备及计算机可读介质 |
CN109033464A (zh) * | 2018-08-31 | 2018-12-18 | 北京字节跳动网络技术有限公司 | 用于处理信息的方法和装置 |
CN110245259A (zh) * | 2019-05-21 | 2019-09-17 | 北京百度网讯科技有限公司 | 基于知识图谱的视频打标签方法及装置、计算机可读介质 |
CN110263180A (zh) * | 2019-06-13 | 2019-09-20 | 北京百度网讯科技有限公司 | 意图知识图谱生成方法、意图识别方法及装置 |
CN110377748A (zh) * | 2019-06-13 | 2019-10-25 | 北京百度网讯科技有限公司 | 实体关注点挖掘方法、装置、计算机设备及存储介质 |
CN110532433A (zh) * | 2019-09-03 | 2019-12-03 | 北京百度网讯科技有限公司 | 视频场景的实体识别方法、装置、电子设备和介质 |
CN111125435A (zh) * | 2019-12-17 | 2020-05-08 | 北京百度网讯科技有限公司 | 视频标签的确定方法、装置和计算机设备 |
Non-Patent Citations (3)
Title |
---|
YUTONG LI 等: "A Text Document Clustering Method Based on Weighted BERT Model", 《 2020 IEEE 4TH INFORMATION TECHNOLOGY, NETWORKING, ELECTRONIC AND AUTOMATION CONTROL CONFERENCE (ITNEC)》 * |
何春辉: "基于描述文本和实体标签的网络视频分类算法", 《 湖南城市学院学报(自然科学版)》 * |
陈新蕾: "面向开放文本的领域实体标签库构建与评价方法研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112434510A (zh) * | 2020-11-24 | 2021-03-02 | 北京字节跳动网络技术有限公司 | 一种信息处理方法、装置、电子设备和存储介质 |
CN112434510B (zh) * | 2020-11-24 | 2024-03-29 | 北京字节跳动网络技术有限公司 | 一种信息处理方法、装置、电子设备和存储介质 |
CN113297394A (zh) * | 2021-06-29 | 2021-08-24 | 中国人民解放军国防科技大学 | 基于知识图谱的数据链网络保障方案智能推荐方法及应用 |
Also Published As
Publication number | Publication date |
---|---|
CN111639234B (zh) | 2023-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112560912B (zh) | 分类模型的训练方法、装置、电子设备和存储介质 | |
CN110717339B (zh) | 语义表示模型的处理方法、装置、电子设备及存储介质 | |
CN111428008B (zh) | 用于训练模型的方法、装置、设备以及存储介质 | |
CN112507715B (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
US10685186B2 (en) | Semantic understanding based emoji input method and device | |
CN111221984A (zh) | 多模态内容处理方法、装置、设备及存储介质 | |
CN111325020A (zh) | 一种事件论元抽取方法、装置以及电子设备 | |
CN111522967A (zh) | 知识图谱构建方法、装置、设备以及存储介质 | |
CN111428514A (zh) | 语义匹配方法、装置、设备以及存储介质 | |
CN111125435A (zh) | 视频标签的确定方法、装置和计算机设备 | |
CN112148881B (zh) | 用于输出信息的方法和装置 | |
CN111191428B (zh) | 评论信息处理方法、装置、计算机设备和介质 | |
CN110674260B (zh) | 语义相似模型的训练方法、装置、电子设备和存储介质 | |
CN111708876A (zh) | 生成信息的方法和装置 | |
CN111950291A (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111241285A (zh) | 问题回答类型的识别方法、装置、设备及存储介质 | |
CN111177462B (zh) | 视频分发时效的确定方法和装置 | |
CN112507090A (zh) | 用于输出信息的方法、装置、设备和存储介质 | |
CN111680517A (zh) | 用于训练模型的方法、装置、设备以及存储介质 | |
CN111859953A (zh) | 训练数据的挖掘方法、装置、电子设备及存储介质 | |
CN111858905A (zh) | 模型训练方法、信息识别方法、装置、电子设备及存储介质 | |
CN111078878A (zh) | 文本处理方法、装置、设备及计算机可读存储介质 | |
CN112269867A (zh) | 用于推送信息的方法、装置、设备以及存储介质 | |
CN111639234B (zh) | 用于挖掘核心实体关注点的方法和装置 | |
CN111385188A (zh) | 对话元素的推荐方法、装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |