CN117874351B - 一种基于情境感知的战场态势信息个性化推荐方法及系统 - Google Patents
一种基于情境感知的战场态势信息个性化推荐方法及系统 Download PDFInfo
- Publication number
- CN117874351B CN117874351B CN202410094163.4A CN202410094163A CN117874351B CN 117874351 B CN117874351 B CN 117874351B CN 202410094163 A CN202410094163 A CN 202410094163A CN 117874351 B CN117874351 B CN 117874351B
- Authority
- CN
- China
- Prior art keywords
- user
- situation
- features
- situation information
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000004927 fusion Effects 0.000 claims abstract description 48
- 230000006870 function Effects 0.000 claims description 22
- 230000007246 mechanism Effects 0.000 claims description 21
- 230000002776 aggregation Effects 0.000 claims description 18
- 238000004220 aggregation Methods 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 230000003993 interaction Effects 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000006835 compression Effects 0.000 claims description 4
- 238000007906 compression Methods 0.000 claims description 4
- 238000011068 loading method Methods 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 4
- 238000012549 training Methods 0.000 description 22
- 239000002131 composite material Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000004205 output neuron Anatomy 0.000 description 2
- 101100481876 Danio rerio pbk gene Proteins 0.000 description 1
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 101100481878 Mus musculus Pbk gene Proteins 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种基于情境感知的战场态势信息个性化推荐方法及系统,其中方法包括:对用户进行画像得到用户画像,生成用户画像特征,基于用户对战场态势信息的使用确定用户历史偏好,生成用户历史偏好特征;基于用户画像特征生成用户个性化态势特征;结合用户画像特征及所述用户历史偏好特征构建用户偏好特征;构建情境感知模型,将预处理后的情境数据输入所述情境感知模型,生成与所述预处理后的情境数据对应的多模态融合情境特征;确定用户个性化态势特征及所述与所述预处理后的情境数据对应的多模态融合情境特征的关联度;若关联度大于预设阈值,则将情境数据作为候选态势信息。本方法考虑多模态情境数据对推荐的影响效果,避免了情境特征的单一。
Description
技术领域
本发明涉及信息处理技术领域,尤其是一种基于情境感知的战场态势信息个性化推荐方法及系统。
背景技术
在军事指挥决策中,准确的态势信息对于指挥员的决策和判断至关重要。然而,海量动态态势信息的处理和筛选是一个复杂而耗时的任务。态势信息的数量和规模以一种前所未有的速度增长,呈井喷式增长,这些信息具有高并发、强实时和不完整等特点,而且战场态势信息存在着体量大、类型多、增长快、价值密度低等特点,大量冗余数据也会严重干扰指挥员对有用信息的提取和有效利用,影响指挥员快速、准确地决策。这就要求指挥控制系统必须及时、准确地将态势信息推送给不同层级的人员。推荐系统已被证明是解决信息过载问题有效的办法。然而传统的基于内容的和基于协同过滤的“用户-项目”的二维信息推荐系统显然是不能满足做出有效军事决策的需要。做好战场情报的准备工作,以确定自己需要承担的具体作战任务,就需要结合实时的情境进行进一步的决策考虑。
现有技术忽略了用户丰富的画像特征,不能有效地根据用户特征进行个性化推荐。此外,以往技术缺少融合多模态情境信息的考虑,特征较为单一,无法有效捕捉多模态情境的特征表示。因而无法有效利用情境信息进行推荐。
因此,本发明提出了一种基于情境感知的战场态势信息个性化推荐系统,设计了一种基于情境感知的战场态势信息个性化推荐系统,用以解决动态多样化情境下的信息推送问题,增强信息推荐的情境适用性,实现信息的精准化推送,将有助于解决信息过载和推荐中忽略情境信息带来的问题,同时提供适合当前情境的个性化、精准的态势信息推荐,帮助指挥员快速获取并分析关键信息,提高指挥决策的效率和准确性。
发明内容
本发明提出一种基于情境感知的战场态势信息个性化推荐方法及系统,能够解决现有技术战场态势信息不能融合多模态的情境信息进行推荐的技术问题。
在本发明上述各方法实施例中,一种基于情境感知的战场态势信息个性化推荐方法,包括:
步骤S1:对用户进行画像得到用户画像,生成用户画像特征,基于用户对战场态势信息的使用确定用户历史偏好,生成用户历史偏好特征;基于所述用户画像特征生成用户个性化态势特征;结合所述用户画像特征及所述用户历史偏好特征构建用户偏好特征;
步骤S2:构建情境感知模型,所述情境感知模型用于对情境数据进行处理,生成多模态融合情境特征;所述情境数据为实时战场态势信息;
步骤S3:将预处理后的情境数据输入所述情境感知模型,生成与所述预处理后的情境数据对应的多模态融合情境特征;
步骤S4:确定所述用户个性化态势特征及所述与所述预处理后的情境数据对应的多模态融合情境特征的关联度;
步骤S5:若所述关联度大于预设阈值,则将所述情境数据作为候选态势信息;
步骤S6:由所述用户偏好特征对所述候选态势信息进行评估,根据评估结果确定是否将所述候选态势信息推送给所述用户。
可选地,所述步骤S1:对用户进行画像得到用户画像,生成用户画像特征,包括:
步骤S111:对用户进行画像得到用户画像,基于所述用户画像构建知识图谱;
步骤S112:获取所述用户画像的知识图嵌入;
其中,分别代表头部实体、关系、尾部实体的嵌入,/>是 />和/>在关系 r 空间中的投影表示;
步骤S113:在基于所述用户画像构建的知识图谱上,通过关系注意机制获取所述知识图谱中实体节点的邻居的权重:
其中,分别为头部实体、关系、尾部实体,/>为可训练的参数矩阵,/>代表与头部实体h通过关系/>相连的节点,/>为头部实体h与尾部实体/>之间的关系,Nh为头部实体h的邻居的集合,/>为归一化后的实体节点的邻居权重,/>为头部实体h的领域嵌入;
步骤S114:通过图神经网络GCN聚合所述知识图谱的知识图嵌入和邻域嵌入得到图神经网络中节点的最终表示;
其中,eh为实体自身的知识图嵌入表示,为实体h的邻域嵌入表示,使用图神经网络来聚合得到实体h的新表示,W为权重矩阵,LeakyReLU为激活函数;
步骤S115:递归的定义实体h在第l层聚合后的表示,把实体在第l层聚合的结果作为实体的最终表示,公式如下:
其中,为实体h在第l-1层聚合后的表示,/>为实体h的邻域集合在第l-1层聚合后的表示, />为聚合函数;
对于用户来说,聚合了属性信息的邻域嵌入表示即为用户画像特征嵌入,使用来表示用户画像特征嵌入,即:/>;
步骤S116,将所述知识图谱中头部实体在第l层的聚合表示即作为用户画像特征表示,作为用户画像特征。
优选地,所述步骤S1:基于用户对战场态势信息的使用确定用户历史偏好,生成用户历史偏好特征,包括:
步骤S121:根据用户和项目的交互构建用户-项目二部图,使用PyTorch框架自带的Embedding层作为嵌入层,从而获取用户和项目的初始嵌入;用和/>表示用户和态势信息的初始嵌入;
步骤S122:通过注意力机制获取与战场态势信息对应的各个组件的权重,确定各个组件的特征加权表示;
注意力机制的计算公式如下:
,分别代表查询、索引、内容,X代表输入的数据,/>代表能够训练的参数矩阵,/>表示特征维度;
组件a的特征加权表示为:
其中代表组件a的嵌入表示;
步骤S123:将所述各个组件的特征加权表示进行拼接,得到态势信息的组件加权表示;
其中,,n代表态势信息中的组件个数,/>、/>分别为各个组件的特征加权;
步骤S124:采用门控机制对所述态势信息的组件加权表示和用户画像特征进行特征选择,并利用最大池化来得到用户个性化态势特征;所述个性化态势特征代表对于不同用户交互的相同的态势信息来说,态势信息特征是自适应于用户的;
,
代表特征选择序列,/>代表用户个性化态势特征,其中,/>是组件的特征加权表示,/>是用户的初始嵌入,/>是项目的初始嵌入,/>为sigmoid函数,为可训练参数;
步骤S125:将所述用户个性化态势特征及所述用户对态势信息的历史交互序列输入LSTM模型,生成用户历史偏好特征;
用户历史偏好特征表示如下:
其中,为用户历史偏好特征,/>为LSTM中的隐藏状态,即上下时刻用户兴趣的组合,/>为平均池化函数。
优选地,所述步骤S1,结合所述用户画像特征及所述用户历史偏好特征构建用户偏好特征,包括:
采用聚合机制将所述用户画像特征、用户历史偏好特征连接成一个嵌入向量后进行线性转换:
其中,矩阵,将连接形成的嵌入向量压缩到潜在空间/>中,d为向量嵌入维度,/>为用户偏好特征。
优选地,所述步骤S2:构建情境感知模型,所述情境感知模型用于对情境数据进行处理,生成多模态融合情境特征;所述情境数据为实时战场态势信息,包括:
构建情境感知模型,将所述实时战场态势信息输入情境感知模型,所述情境感知模型包括并列的CNN模型和Bert模型;所述CNN模型用于提取所述实时战场态势信息的图像特征,所述Bert模型用于提取所述实时战场态势信息的文本特征;将所述实时战场态势信息的图像特征及所述实时战场态势信息的文本特征融合,得到融合特征,将所述融合特征输入改进的生成对抗网络模型,生成多模态融合情境特征及对所述实时战场态势信息的分类结果。
优选地,所述步骤S4:确定所述用户个性化态势特征及所述与所述预处理后的情境数据对应的多模态融合情境特征的关联度,包括:
确定所述用户个性化态势特征与所述处理后的情境数据对应的多模态融合情境特征的秩次差;
计算所述用户个性化态势特征与所述处理后的情境数据对应的多模态融合情境特征的Spearman相关系数,
其中,表示Spearman相关系数,/>表示所有特征秩次差的平方和,n表示特征的维度,用户个性化态势特征与多模态融合情境特征维度相同,均为n;
将Spearman相关系数作为关联度。
优选地,所述步骤S6,所述用户偏好特征对所述候选态势信息进行评估,评估方式为:
计算用户和候选态势信息表示的内积来得到预测分数:
代表softmax函数,/>代表用户偏好,/>代表候选态势信息的个性化特征表示,/>代表预测的用户对候选态势信息的偏好分数。
在本发明上述各方法实施例中,一种基于情境感知的战场态势信息个性化推荐系统,包括:
用户偏好特征模块:配置为对用户进行画像得到用户画像,生成用户画像特征,基于用户对战场态势信息的使用确定用户历史偏好,生成用户历史偏好特征;基于所述用户画像特征生成用户个性化态势特征;结合所述用户画像特征及所述用户历史偏好特征构建用户偏好特征;
情境感知模型模块:配置为构建情境感知模型,所述情境感知模型用于对情境数据进行处理,生成多模态融合情境特征;所述情境数据为实时战场态势信息;
多模态融合情境特征模块:配置为将预处理后的情境数据输入所述情境感知模型,生成与所述预处理后的情境数据对应的多模态融合情境特征;
关联度模块:配置为确定所述用户个性化态势特征及所述与所述预处理后的情境数据对应的多模态融合情境特征的关联度;
候选态势信息确定模块:配置为若所述关联度大于预设阈值,则将所述情境数据作为候选态势信息;
态势信息推送模块:配置为由所述用户偏好特征对所述候选态势信息进行评估,根据评估结果确定是否将所述候选态势信息推送给所述用户。
在本发明上述各方法实施例中,一种计算机可读存储介质,所述存储介质中存储有多条指令,所述多条指令用于由处理器加载并执行如前所述方法。
在本发明上述各方法实施例中,一种电子设备,所述电子设备,包括:
处理器,用于执行多条指令;
存储器,用于存储多条指令;
其中,所述多条指令用于由所述存储器存储,并由所述处理器加载并执行如前所述方法。
本发明具有以下优点:本发明考虑了用户画像的丰富特征,并通过门控机制来获取对于用户的态势信息的个性化表示。且本发明考虑了推荐过程中多模态情境数据对推荐的影响效果,避免了情境特征的单一,提高了推荐的有效性和可用性。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
通过结合附图对本发明实施例进行更详细的描述,本发明的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本发明实施例的进一步理解,并且构成说明书的一部分,与本发明实施例一起用于解释本发明,并不构成对本发明的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为本发明基于情境感知的战场态势信息个性化推荐方法流程示意图;
图2为本发明基于情境感知的战场态势信息个性化推荐方法架构示意图;
图3为本发明用户偏好模型示意图;
图4为本发明基于生成对抗网络的情境感知模型示意图;
图5为本发明基于情境感知的战场态势信息个性化推荐系统结构示意图;
图6为本发明基于情境感知的战场态势信息个性化推荐电子设备结构示意图。
具体实施方式
下面,将参考附图详细地描述根据本发明的示例实施例。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是本发明的全部实施例,应理解,本发明不受这里描述的示例实施例的限制。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
本领域技术人员可以理解,本发明实施例中的“第一”、“第二”、S1、S2等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。还应理解,在本发明实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。还应理解,对于本发明实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本发明中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本发明中字符“/”,一般表示前后关联对象是一种“或”的关系。还应理解,本发明对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,技术、方法和设备应当被视为说明书的一部分。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本发明实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
示例性方法
图1是本发明一示例性实施例提供的基于情境感知的战场态势信息个性化推荐方法的流程示意图。如图1-图3所示,该方法包括以下步骤:
步骤S1:对用户进行画像得到用户画像,生成用户画像特征,基于用户对战场态势信息的使用确定用户历史偏好,生成用户历史偏好特征;基于所述用户画像特征生成用户个性化态势特征;结合所述用户画像特征及所述用户历史偏好特征构建用户偏好特征;
步骤S2:构建情境感知模型,所述情境感知模型用于对情境数据进行处理,生成多模态融合情境特征;所述情境数据为实时战场态势信息;
步骤S3:将预处理后的情境数据输入所述情境感知模型,生成与所述预处理后的情境数据对应的多模态融合情境特征;
步骤S4:确定所述用户个性化态势特征及所述与所述预处理后的情境数据对应的多模态融合情境特征的关联度;
步骤S5:若所述关联度大于预设阈值,则将所述情境数据作为候选态势信息;
步骤S6:由所述用户偏好特征对所述候选态势信息进行评估,根据评估结果确定是否将所述候选态势信息推送给所述用户。
所述步骤S1:对用户进行画像得到用户画像,生成用户画像特征,包括:
步骤S111:对用户进行画像得到用户画像,基于所述用户画像构建知识图谱;
步骤S112:获取所述用户画像的知识图嵌入;
其中,分别代表头部实体、关系、尾部实体的嵌入,/>是/>和/>在关系 r 空间中的投影表示;
步骤S113:在基于所述用户画像构建的知识图谱上,通过关系注意机制获取所述知识图谱中实体节点的邻居的权重:
其中,分别为头部实体、关系、尾部实体,/>为可训练的参数矩阵,/>代表与头部实体h通过关系/>相连的节点,/>为头部实体h与尾部实体/>之间的关系,Nh为头部实体h的邻居的集合,/>为归一化后的实体节点的邻居权重,/>为头部实体h的领域嵌入;
步骤S114:通过图神经网络GCN聚合所述知识图谱的知识图嵌入和邻域嵌入得到图神经网络中节点的最终表示:
,
其中,为头部实体自身的知识图嵌入表示,/>为头部实体h的邻域嵌入表示,使用图神经网络来聚合得到头部实体h的新表示,W为权重矩阵,LeakyReLU为激活函数;
步骤S115:递归地定义头部实体h在第l层聚合后的表示,把头部实体在第l层聚合的结果作为实体的最终表示,公式如下:
其中,为头部实体h在第l-1层聚合后的表示,/>为头部实体h的邻域在第l-1层聚合后的表示,/>为聚合函数,即前文的fGCN;
对于用户来说,聚合了属性信息的邻域嵌入表示即为用户画像特征嵌入,使用来表示用户画像特征嵌入,即:/>;
步骤S116,将所述知识图谱中实体在第l层的聚合表示即作为用户画像特征表示,作为用户画像特征。
所述步骤S1:基于用户对战场态势信息的使用确定用户历史偏好,生成用户历史偏好特征,包括:
步骤S121:根据用户和项目的交互构建用户-项目二部图,使用PyTorch框架自带的Embedding层作为嵌入层,从而获取用户和项目的初始嵌入;用和/>表示用户和态势信息的初始嵌入;
步骤S122:通过注意力机制获取与战场态势信息对应的各个组件的权重,确定各个组件的特征加权表示;
注意力机制的计算公式如下:
分别代表查询、索引、内容,X代表输入的数据,/>代表能够训练的参数矩阵,/>表示特征维度;
组件a的特征加权表示为:
其中,代表组件a的嵌入表示。
步骤S123:将所述各个组件的特征加权表示进行拼接,得到态势信息的组件加权表示;
其中,,n代表态势信息中的组件个数,/>、/>分别为各个组件的特征加权;
步骤S124:采用门控机制对所述态势信息的组件加权表示和用户画像特征进行特征选择,并利用最大池化来得到用户个性化态势特征;所述个性化态势特征代表对于不同用户交互的相同的态势信息来说,态势信息特征是自适应于用户的;
代表特征选择序列,/>代表用户个性化态势特征,其中,/>是组件的特征加权表示,/>是用户的初始嵌入,/>是项目的初始嵌入,/>为sigmoid函数,为可训练参数;
本实施例中,不同用户对态势信息的关注点不同,对于某个项目,用户可能只关注项目的特定部分而忽略其他没有重要信息的部分。因此,设计了一个门控机制来获取态势信息对于用户的个性化特征表示。
步骤S125:将所述用户个性化态势特征及所述用户对态势信息的历史交互序列输入LSTM模型,生成用户历史偏好特征;
用户历史偏好特征表示如下:
其中,为用户历史偏好特征,/>为LSTM中的隐藏状态,即上下时刻用户兴趣的组合,/>为平均池化函数。
本实施例中,LSTM的计算公式如下:
所述步骤S1,结合所述用户画像特征及所述用户历史偏好特征构建用户偏好特征,包括:
采用聚合机制将所述用户画像特征、用户历史偏好特征连接成一个嵌入向量后进行线性转换:
其中,矩阵,将连接形成的嵌入向量压缩到潜在空间/>中,d为向量嵌入维度,/>为用户偏好特征。
本实施例中,战场态势信息呈现海量分布和爆炸式增长,导致指挥员不能快速、准确地获取相关的有效情报,而推荐技术能够缩短情报处理时间,提高指挥决策的准确性和效率。通过分析用户的画像信息,包括年龄、性别、职业等特征,以及用户的历史偏好,包括浏览记录、点击行为等,可以构建用户偏好特征,从而针对不同用户提供个性化的态势信息推荐。基于预处理的用户数据和预处理的战场态势信息数据生成用户偏好特征。
如图4所示,所述步骤S2:构建情境感知模型,所述情境感知模型用于对情境数据进行处理,生成多模态融合情境特征;所述情境数据为实时战场态势信息,包括:
构建情境感知模型,将所述实时战场态势信息输入情境感知模型,所述情境感知模型包括并列的CNN模型和Bert模型;所述CNN模型用于提取所述实时战场态势信息的图像特征,所述Bert模型用于提取所述实时战场态势信息的文本特征;将所述实时战场态势信息的图像特征及所述实时战场态势信息的文本特征融合,得到融合特征,将所述融合特征输入改进的生成对抗网络模型,生成多模态融合情境特征及对所述实时战场态势信息的分类结果。
所述改进的对抗网络模型的结构为:
把生成对抗网络模型的输出层替换成softmax分类器,用于实现情境感知分类。
在训练所述改进的生成对抗网络模型时,训练样本有c类,把所述改进的生成对抗网络模型的生成器模拟出来的样本归为第c+1类,并在softmax分类器中增加一个输出神经元,用于表示所述改进的生成对抗网络模型的判别器的输入为假数据的概率,所述假数据指所述生成器生成的样本。本实施例中,生成器负责生成与真实情境相似的样本,而判别器则负责区分生成的样本和真实样本。通过训练改进的生成对抗网络模型,可以使生成器生成更加逼真的情境样本,并且判别器能够准确区分真实样本和生成样本。最终,可以根据判别器的输出来对当前情境进行分类。
所述改进的对抗网络模型的训练过程包括:
步骤S21:在当前迭代次数CUN对应的训练迭代中,首先从真实样本中随机选择一批样本,并从随机噪声向量中生成一批合成样本;
步骤S22:根据真实样本和合成样本,分别计算判别器的损失;判别器的目标是最小化真实样本的损失并最大化合成样本的损失;
步骤S23:根据合成样本,计算生成器的损失;生成器的目标是最大化合成样本被判别为真实样本的概率;
步骤S24:使用反向传播算法更新判别器和生成器的参数,以减小判别器和生成器的损失;若未达到预定的训练迭代次数MAX或损失收敛精度,进入步骤S21,否则,方法结束。
本实施例中,针对情境信息存在着异构、多元等特性,将情境数据整理为不同模态的,然后针对不同模态的数据分别进行处理,在数据准备阶段,收集和整理战场态势信息的数据集,包括不同情境下的数据样本。数据集应包括不同类型的信息,如图像、文本或传感器数据等,以充分表达战场态势的特征。然后对数据集进行标注,将每个样本与对应的情境标签关联起来。在数据预处理阶段,对图像数据进行预处理,如调整大小、归一化等,以便于输入到神经网络中;对文本数据进行分词、编码等处理,将其转化为数值表示;对传感器数据进行滤波、降采样等预处理操作。
1)获取图像特征表示,步骤如下:
(1)输入图像:首先,将待处理的图像输入到CNN模型中(参见图4)。图像可以是彩色图像,也可以是灰度图像。彩色图像通常由三个通道(红、绿、蓝)组成,而灰度图像只有一个通道。
(2)卷积层:CNN模型的核心是卷积层。卷积层通过使用一组可学习的卷积核(filter)对输入图像进行卷积操作,从而提取图像的局部特征。卷积操作可以看作是一种特征提取器,它通过对输入图像的不同区域进行滑动窗口的方式,计算出每个区域与卷积核的卷积结果。
(3)激活函数:卷积操作的结果通常会经过一个非线性激活函数,如ReLU(Rectified Linear Unit)函数。激活函数的作用是引入非线性,使CNN模型能够学习更复杂的特征。
(4)池化层:在卷积层之后,通常会添加一个池化层。池化层的作用是对卷积层输出的特征图进行降维和压缩。常用的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling),它们分别选择局部区域中的最大值或平均值作为池化结果。
(5)多层卷积和池化:CNN模型通常会包含多个卷积层和池化层的堆叠,以提取更高级别的特征。每一层的卷积核可以学习到不同的特征,通过多层的堆叠,CNN模型可以逐渐提取出更加抽象和高级别的特征。
(6)全连接层:在经过多层卷积和池化之后,通常会添加一个或多个全连接层。全连接层将卷积层输出的特征图展平为一维向量,并通过全连接的方式连接到输出层。全连接层可以学习到输入图像的全局特征,并进行分类、回归或其他任务的预测。
通过以上步骤,CNN模型可以从输入图像中逐层提取特征,从低级别的边缘和纹理特征到高级别的物体和语义特征,提取的图像特征记为pe。
2)获取文本特征表示
接下来使用Bert处理文本序列数据,Bert(Bidirectional EncoderRepresentations from Transformers)是一种基于Transformer架构的预训练语言模型,它被广泛应用于自然语言处理(NLP)任务中,包括文本分类、命名实体识别、问答系统等。它能够通过预训练学习到丰富的语言表示。使用Bert对文本数据进行特征提取。Bert作为一种预训练的自然语言处理模型,能够学习到丰富的词向量表示和上下文信息。通过将文本输入Bert模型中,可以得到文本的语义表示。
具体流程可以分为以下几个步骤:
(1)将预处理后的文本序列转化为Bert模型可以接受的输入表示。Bert模型的输入包括两部分:词嵌入(Word Embedding)和位置编码(Positional Encoding)。词嵌入将每个词索引映射为一个高维向量表示,而位置编码则用于表示词的位置信息。将词嵌入和位置编码相加,得到最终的输入表示。
(2)Bert模型结构:Bert模型由多个Transformer编码器组成,这些编码器层之间通过残差连接和层归一化连接在一起。Bert模型的核心是自注意力机制(Self-Attention),它能够根据上下文信息动态地对每个词进行加权聚合。自注意力机制能够捕捉到文本序列中词与词之间的关系,从而更好地理解文本的语义。
(3)Bert模型训练:在训练阶段,Bert模型需要进行目标任务的有监督学习。常见的目标任务包括文本分类、命名实体识别、问答系统等。在训练阶段,Bert模型会根据目标任务的标签进行反向传播和参数更新,以优化模型的参数。
(4)Fine-tuning微调:在训练完成后,可以进行Fine-tuning微调操作,以适应特定的下游任务。Fine-tuning通常包括在Bert模型的顶部添加一些额外的层,用于特定任务的预测和分类。然后,使用下游任务的标签进行再次训练,以调整Bert模型的参数,使其更好地适应下游任务。
经过以上步骤可以获得相关情境的文本特征,记为te。
对多模态情境信息进行融合:
通过多层感知机(MLP)来融合不同模态的特征可以实现多模态数据的有效融合。对于CNN提取的图像特征和Bert提取的文本特征通过连接、拼接或加权求和等方式进行融合,将拼接后的特征输入MLP网络,使用MLP网络对融合后的特征进行处理和学习。
步骤如下:
1)对CNN提取的图像特征和Bert提取的文本特征进行拼接操作;
2)将拼接后的特征输入MLP网络,使用MLP网络对融合后的特征进行处理;
MLP由多个全连接层组成,每个全连接层都包含一组权重和偏置,可以将输入特征映射到更高维度的特征空间。融合后的特征用re表示,公式如下:
其中,矩阵将两个组合的嵌入向量压缩到潜在空间/>中,d为向量嵌入维度,W2和b分别是权重矩阵和偏置向量。
将融合特征输入生成对抗网络:
在得到融合特征后,将融合特征输入生成对抗网络GAN,生成对抗网络是一种深度学习模型,由生成器(generator)和判别器(discriminator)组成,这里通过把判别器的输出层替换成softmax分类器来实现情境感知分类。假设训练数据有c类,那么在训练GAN模型的时候,可以把生成器模拟出来的样本归为第c+1类,而softmax分类器也增加一个输出神经元,用于表示判别器模型的输入为“假数据”的概率,这里的“假数据”具体指生成器生成的样本。生成器负责生成与真实情境相似的样本,而判别器则负责区分生成的样本和真实样本。通过训练生成对抗网络,可以使生成器生成更加逼真的情境样本,并且判别器能够准确区分真实样本和生成样本。最终,可以根据判别器的输出来对当前情境进行分类。
下面是详细的流程说明和步骤操作:
(1)数据准备:首先,需要准备带有标签的训练数据集,包括输入样本和对应的标签。这些标签将作为条件输入提供给生成器和判别器。
(2)生成器网络:生成器网络是一个用于生成合成样本的神经网络。它接收一个特征向量作为输入,并输出一个合成样本数据。生成器的目标是生成与真实样本相似的合成样本。
(3)判别器网络:判别器网络是一个用于区分真实样本和合成样本的神经网络。它接收一个样本(可以是真实样本或合成样本)和条件输入(标签)作为输入,并输出一个判别结果,表示输入样本是真实样本的概率。判别器的目标是尽可能准确地区分真实样本和合成样本。
(4)GAN训练过程如下:
在每个训练步骤中,首先从真实样本中随机选择一批样本,并从随机噪声向量中生成一批合成样本。
根据真实样本和合成样本,分别计算判别器的损失。判别器的目标是最小化真实样本的损失并最大化合成样本的损失。
根据合成样本,计算生成器的损失。生成器的目标是最大化合成样本被判别为真实样本的概率。
使用反向传播算法更新判别器和生成器的参数,以减小判别器和生成器的损失。
重复上述步骤,直到达到预定的训练迭代次数或损失收敛。
(5)分类任务:在训练完成后,可以使用生成器网络来生成合成样本,并将这些样本输入到一个独立的分类器中进行分类任务。生成器网络可以生成具有特定标签的样本,从而扩充训练数据,提高分类器的性能。
需要注意的是,GAN在处理分类问题时,生成器的目标不是直接生成特定类别的样本,而是生成与真实样本相似的样本。分类任务是在生成样本的基础上进行的,因此生成器和分类器是独立的网络。
通过GAN处理情境感知的分类问题,能够增加样本的多样性,提高分类器的鲁棒性和泛化能力。GAN使用生成器和判别器之间的对抗训练机制,使得生成器和判别器可以相互促进、相互学习。生成器通过不断优化生成合成样本来欺骗判别器,而判别器通过不断优化判别真实样本和合成样本的能力来防止被欺骗。这种对抗训练可以提高生成器和判别器的性能,进而提高分类器的性能。
本发明基于情境信息的战场态势感知可以辅助用户进行操作意图判断﹑多用户协作推荐等智能响应从而提高指挥人员对战场态势的觉察、理解与预测能力。为了充分利用多种信息来源,丰富情境感知的特征表示,构建了一种基于生成对抗网络的情境感知模型,实现情境的快速分类识别。
所述步骤S4:确定所述用户个性化态势特征及所述与所述预处理后的情境数据对应的多模态融合情境特征的关联度,包括:
确定所述用户个性化态势特征与所述处理后的情境数据对应的多模态融合情境特征的秩次差;
计算所述用户个性化态势特征与所述处理后的情境数据对应的多模态融合情境特征的Spearman相关系数,
其中,表示Spearman相关系数,/>表示所有特征秩次差的平方和,n表示特征的维度,用户个性化态势特征与多模态融合情境特征维度相同,均为n;
将Spearman相关系数作为关联度。
本实施例中,基于Spearman相关系数定义了一个关联度阈值函数,Spearman相关系数是一种非参数的计算特征之间关联度的方法,适用于连续或有序离散特征。下面是使用Spearman相关系数计算关联度的详细设计流程:
1.收集数据:首先,需要收集包含情境和态势信息的数据集。数据集应包含多个样本,每个样本都有相应的情境特征和态势信息特征;
2.将特征值排序:对于每个特征,将其在整个数据集上的样本值进行排序。排序后,每个样本都会有一个相应的排序位置;
3.计算秩次:对于每个特征,根据排序位置,为每个样本分配一个秩次。如果有多个样本具有相同的值,则可以为它们分配平均秩次;
4.计算秩次差:对于每对特征(情境特征与态势信息特征),计算它们在数据集上的秩次差。秩次差表示两个特征之间的相对排序关系;
5.计算Spearman相关系数:使用秩次差的值,计算每对特征之间的Spearman相关系数。Spearman相关系数的计算公式如下:
其中,表示Spearman相关系数,/>表示所有秩次差的平方和,n表示特征的维度;
6.设置阈值:根据本发明的应用场景和需求,设置一个相关系数的阈值。超过该阈值的相关系数可以认为是有关联的,否则认为是无关联的;
Spearman相关系数可以捕捉到特征之间的任意单调关系,不仅限于线性关系,使得它在分析非线性关系或复杂关系时更加有用。通过计算态势信息特征与当前情境特征的关联度,这里态势信息特征选择研究内容一中的态势信息的个性化特征vc,情境特征选择研究内容二中的融合后的特征re。
进一步地,所述步骤S6,由所述用户偏好特征对所述候选态势信息进行评估,评估方式为:
计算用户和候选态势信息表示的内积来得到预测分数:
代表softmax函数,/>代表用户偏好,/>代表候选态势信息的个性化特征表示,/>代表预测的用户对候选态势信息的偏好分数。
进一步地,由所述用户偏好特征对多个所述候选态势信息进行评估,为每个候选态势信息生成评估值,根据评估值得分从高到低进行排序,将排在前面的topk个作为推荐结果推送给所述用户。
示例性装置
图5是本发明一示例性实施例提供的基于情境感知的战场态势信息个性化推荐装置的结构示意图。如图5所示,本实施例包括:
用户偏好特征模块:配置为对用户进行画像得到用户画像,生成用户画像特征,基于用户对战场态势信息的使用确定用户历史偏好,生成用户历史偏好特征;基于所述用户画像特征生成用户个性化态势特征;结合所述用户画像特征及所述用户历史偏好特征构建用户偏好特征;
情境感知模型模块:配置为构建情境感知模型,所述情境感知模型用于对情境数据进行处理,生成多模态融合情境特征;所述情境数据为实时战场态势信息;
多模态融合情境特征模块:配置为将预处理后的情境数据输入所述情境感知模型,生成与所述预处理后的情境数据对应的多模态融合情境特征;
关联度模块:配置为确定所述用户个性化态势特征及所述与所述预处理后的情境数据对应的多模态融合情境特征的关联度;
候选态势信息确定模块:配置为若所述关联度大于预设阈值,则将所述情境数据作为候选态势信息;
态势信息推送模块:配置为由所述用户偏好特征对所述候选态势信息进行评估,根据评估结果确定是否将所述候选态势信息推送给所述用户。
示例性电子设备
图6是本发明一示例性实施例提供的电子设备60的结构。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。图6图示了根据本公开实施例的电子设备的框图。如图6所示,电子设备包括一个或多个处理器61和存储器62。
处理器61可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器62可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器61可以运行所述程序指令,以实现上文所述的本公开的各个实施例的软件程序的方法以及/或者其他期望的功能。在一个示例中,电子设备还可以包括:输入装置63和输出装置64,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
此外,该输入装置63还可以包括例如键盘、鼠标等等。
该输出装置64可以向外部输出各种信息。该输出装置64可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图6中仅示出了该电子设备中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的基于情境感知的战场态势信息个性化推荐方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的基于情境感知的战场态势信息个性化推荐方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (10)
1.一种基于情境感知的战场态势信息个性化推荐方法,其特征在于,所述方法包括如下步骤:
步骤S1:对用户进行画像得到用户画像,生成用户画像特征,基于用户对战场态势信息的使用确定用户历史偏好,生成用户历史偏好特征;基于所述用户画像特征生成用户个性化态势特征;结合所述用户画像特征及所述用户历史偏好特征构建用户偏好特征;
步骤S2:构建情境感知模型,所述情境感知模型用于对情境数据进行处理,生成多模态融合情境特征;所述情境数据为实时战场态势信息;
步骤S3:将预处理后的情境数据输入所述情境感知模型,生成与所述预处理后的情境数据对应的多模态融合情境特征;
步骤S4:确定所述用户个性化态势特征及所述与所述预处理后的情境数据对应的多模态融合情境特征的关联度;
步骤S5:若所述关联度大于预设阈值,则将所述情境数据作为候选态势信息;
步骤S6:由所述用户偏好特征对所述候选态势信息进行评估,根据评估结果确定是否将所述候选态势信息推送给所述用户。
2.如权利要求1所述的方法,其特征在于,所述步骤S1:对用户进行画像得到用户画像,生成用户画像特征,包括:
步骤S111:对用户进行画像得到用户画像,基于所述用户画像构建知识图谱;
步骤S112:获取所述用户画像的知识图嵌入;
,
其中,分别代表头部实体、关系、尾部实体的嵌入,/>是 />和在关系r空间中的投影表示;
步骤S113:在基于所述用户画像构建的知识图谱上,通过关系注意机制获取所述知识图谱中实体节点的邻居的权重:
,
其中,分别为头部实体、关系、尾部实体,/>为可训练的参数矩阵,/>代表与头部实体h通过关系/>相连的节点,/>为头部实体h与尾部实体/>之间的关系,Nh为头部实体h的邻居的集合,/>为归一化后的实体节点的邻居权重,/>为头部实体h的领域嵌入;
步骤S114:通过图神经网络GCN聚合所述知识图谱的知识图嵌入和邻域嵌入得到图神经网络中节点的最终表示:
,
其中,为实体自身的知识图嵌入表示,/>为头部实体h的邻域嵌入表示,使用图神经网络来聚合得到头部实体h的新表示,W是权重矩阵,LeakyReLU为激活函数;
步骤S115:递归地定义头部实体h在第l层聚合后的表示,把头部实体在第l层聚合的结果作为实体的最终表示,公式如下:
,
其中,为头部实体h在第l-1层聚合后的表示,/>为头部实体h的邻域在第l-1层聚合后的表示,/>为聚合函数;
对于用户来说,聚合了属性信息的邻域嵌入表示即为用户画像特征嵌入,使用来表示用户画像特征嵌入,即:/>;
步骤S116,将所述知识图谱中实体在第l层的聚合表示即作为用户画像特征表示,作为用户画像特征。
3.如权利要求2所述的方法,其特征在于,所述步骤S1:基于用户对战场态势信息的使用确定用户历史偏好,生成用户历史偏好特征,包括:
步骤S121:根据用户和项目的交互构建用户-项目二部图,使用PyTorch框架自带的Embedding层作为嵌入层,从而获取用户和项目的初始嵌入;用和/>表示用户和态势信息的初始嵌入;
步骤S122:通过注意力机制获取与战场态势信息对应的各个组件的权重,确定各个组件的特征加权表示;
注意力机制的计算公式如下:
,
,分别代表查询、索引、内容,X代表输入的数据,代表能够训练的参数矩阵,/>表示特征维度;
组件a的特征加权表示为:
,
其中代表组件a的嵌入表示;
步骤S123:将所述各个组件的特征加权表示进行拼接,得到态势信息的组件加权表示;
,
其中,,n代表态势信息中的组件个数,/>、/>分别为各个组件的特征加权;
步骤S124:采用门控机制对所述态势信息的组件加权表示和用户画像特征进行特征选择,并利用最大池化来得到用户个性化态势特征;所述个性化态势特征代表对于不同用户交互的相同的态势信息来说,态势信息特征是自适应于用户的;
,
代表特征选择序列,/>代表用户个性化态势特征,其中,/>是组件的特征加权表示,/>是用户的初始嵌入,/>是项目的初始嵌入,/>为sigmoid函数,/>为可训练参数;
步骤S125:将所述用户的个性化态势特征及所述用户对态势信息的历史交互序列输入LSTM模型,生成用户历史偏好特征;
用户历史偏好特征表示如下:
,
其中,为用户历史偏好特征,/>为LSTM中的隐藏状态,即上下时刻用户兴趣的组合,/>为平均池化函数。
4.如权利要求3所述的方法,其特征在于,所述步骤S1,结合所述用户画像特征及所述用户历史偏好特征构建用户偏好特征,包括:
采用聚合机制将所述用户画像特征、用户历史偏好特征连接成一个嵌入向量后进行线性转换:
,
其中,矩阵,将连接形成的嵌入向量压缩到潜在空间/>中,d为向量嵌入维度,/>为用户偏好特征。
5.如权利要求4所述的方法,其特征在于,所述步骤S2:构建情境感知模型,所述情境感知模型用于对情境数据进行处理,生成多模态融合情境特征;所述情境数据为实时战场态势信息,包括:
构建情境感知模型,将所述实时战场态势信息输入情境感知模型,所述情境感知模型包括并列的CNN模型和Bert模型;所述CNN模型用于提取所述实时战场态势信息的图像特征,所述Bert模型用于提取所述实时战场态势信息的文本特征;将所述实时战场态势信息的图像特征及所述实时战场态势信息的文本特征融合,得到融合特征,将所述融合特征输入改进的生成对抗网络模型,生成多模态融合情境特征及对所述实时战场态势信息的分类结果。
6.如权利要求5所述的方法,其特征在于,所述步骤S4:确定所述用户个性化态势特征及所述与所述预处理后的情境数据对应的多模态融合情境特征的关联度,包括:
确定所述用户个性化态势特征与所述处理后的情境数据对应的多模态融合情境特征的秩次差;
计算所述用户个性化态势特征与所述处理后的情境数据对应的多模态融合情境特征的Spearman相关系数,
,
其中,表示Spearman相关系数,/>表示所有特征秩次差的平方和,n表示特征的维度,用户个性化态势特征及多模态融合情境特征维度相同,均为n;
将Spearman相关系数作为关联度。
7.如权利要求6所述的方法,其特征在于,所述步骤S6,由所述用户偏好特征对所述候选态势信息进行评估,评估方式为:
计算用户和候选态势信息表示的内积来得到预测分数:
,
代表softmax函数,/>代表用户偏好,/>代表候选态势信息的个性化特征表示,代表预测的用户对候选态势信息的偏好分数。
8.一种基于情境感知的战场态势信息个性化推荐系统,其特征在于,包括:
用户偏好特征模块:配置为对用户进行画像得到用户画像,生成用户画像特征,基于用户对战场态势信息的使用确定用户历史偏好,生成用户历史偏好特征;基于所述用户画像特征生成用户个性化态势特征;结合所述用户画像特征及所述用户历史偏好特征构建用户偏好特征;
情境感知模型模块:配置为构建情境感知模型,所述情境感知模型用于对情境数据进行处理,生成多模态融合情境特征;所述情境数据为实时战场态势信息;
多模态融合情境特征模块:配置为将预处理后的情境数据输入所述情境感知模型,生成与所述预处理后的情境数据对应的多模态融合情境特征;
关联度模块:配置为确定所述用户个性化态势特征及所述与所述预处理后的情境数据对应的多模态融合情境特征的关联度;
候选态势信息确定模块:配置为若所述关联度大于预设阈值,则将所述情境数据作为候选态势信息;
态势信息推送模块:配置为由所述用户偏好特征对所述候选态势信息进行评估,根据评估结果确定是否将所述候选态势信息推送给所述用户。
9.一种计算机可读存储介质,其特征在于,所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行如权利要求1-7中任一项所述的方法。
10.一种电子设备,其特征在于,所述电子设备,包括:
处理器,用于执行多条指令;
存储器,用于存储多条指令;
其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410094163.4A CN117874351B (zh) | 2024-01-23 | 2024-01-23 | 一种基于情境感知的战场态势信息个性化推荐方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410094163.4A CN117874351B (zh) | 2024-01-23 | 2024-01-23 | 一种基于情境感知的战场态势信息个性化推荐方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117874351A CN117874351A (zh) | 2024-04-12 |
CN117874351B true CN117874351B (zh) | 2024-06-18 |
Family
ID=90577265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410094163.4A Active CN117874351B (zh) | 2024-01-23 | 2024-01-23 | 一种基于情境感知的战场态势信息个性化推荐方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117874351B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115203471A (zh) * | 2022-09-15 | 2022-10-18 | 山东宝盛鑫信息科技有限公司 | 一种基于注意力机制的多模融合视频推荐方法 |
CN116994709A (zh) * | 2023-06-01 | 2023-11-03 | 广州营悦营养健康咨询有限公司 | 一种个性化的饮食与运动推荐方法、系统及电子设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118043802A (zh) * | 2021-09-29 | 2024-05-14 | 华为技术有限公司 | 一种推荐模型训练方法及装置 |
CN113868541A (zh) * | 2021-10-28 | 2021-12-31 | 杭州网易云音乐科技有限公司 | 推荐对象确定方法、介质、装置和计算设备 |
CN115270007B (zh) * | 2022-08-17 | 2023-09-22 | 烟台大学 | 一种基于混合图神经网络的poi推荐方法及系统 |
-
2024
- 2024-01-23 CN CN202410094163.4A patent/CN117874351B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115203471A (zh) * | 2022-09-15 | 2022-10-18 | 山东宝盛鑫信息科技有限公司 | 一种基于注意力机制的多模融合视频推荐方法 |
CN116994709A (zh) * | 2023-06-01 | 2023-11-03 | 广州营悦营养健康咨询有限公司 | 一种个性化的饮食与运动推荐方法、系统及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN117874351A (zh) | 2024-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444428B (zh) | 基于人工智能的信息推荐方法、装置、电子设备及存储介质 | |
CN114556443A (zh) | 使用基于注意力的融合网络的多媒体数据语义分析系统和方法 | |
CN111581510A (zh) | 分享内容处理方法、装置、计算机设备和存储介质 | |
CN113688304A (zh) | 搜索推荐模型的训练方法、搜索结果排序的方法及装置 | |
CN111667022A (zh) | 用户数据处理方法、装置、计算机设备和存储介质 | |
CN116720004B (zh) | 推荐理由生成方法、装置、设备及存储介质 | |
CN113868497A (zh) | 一种数据分类方法、装置和存储介质 | |
CN112257841A (zh) | 图神经网络中的数据处理方法、装置、设备及存储介质 | |
CN112819024B (zh) | 模型处理方法、用户数据处理方法及装置、计算机设备 | |
CN113326384A (zh) | 一种基于知识图谱的可解释推荐模型的构建方法 | |
CN114357151A (zh) | 文本类目识别模型的处理方法、装置、设备及存储介质 | |
CN117011737A (zh) | 一种视频分类方法、装置、电子设备和存储介质 | |
CN117494051A (zh) | 一种分类处理的方法、模型训练的方法以及相关装置 | |
CN113918764A (zh) | 一种基于交叉模态融合的电影推荐系统 | |
CN117315070A (zh) | 图像生成方法、装置、电子设备、存储介质和程序产品 | |
CN117216281A (zh) | 一种基于知识图谱的用户兴趣扩散推荐方法及系统 | |
CN118261677A (zh) | 基于数据挖掘的客户信息分析管理系统及方法 | |
CN112486467B (zh) | 一种双重交互关系和注意力机制的交互式服务推荐方法 | |
CN112925983A (zh) | 一种电网资讯信息的推荐方法及系统 | |
CN116994114A (zh) | 一种基于改进YOLOv8的轻量化家居小目标检测模型构建方法 | |
CN117874351B (zh) | 一种基于情境感知的战场态势信息个性化推荐方法及系统 | |
Landolsi et al. | Image annotation in social networks using graph and multimodal deep learning features | |
CN113157892A (zh) | 用户意图处理方法、装置、计算机设备及存储介质 | |
Ohtomo et al. | User-centric multimodal feature extraction for personalized retrieval of tumblr posts | |
CN115062230B (zh) | 数据处理方法、装置、设备、介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |