CN116993893B - 一种抵御ai自瞄作弊的对抗贴图生成方法及装置 - Google Patents
一种抵御ai自瞄作弊的对抗贴图生成方法及装置 Download PDFInfo
- Publication number
- CN116993893B CN116993893B CN202311250057.2A CN202311250057A CN116993893B CN 116993893 B CN116993893 B CN 116993893B CN 202311250057 A CN202311250057 A CN 202311250057A CN 116993893 B CN116993893 B CN 116993893B
- Authority
- CN
- China
- Prior art keywords
- map
- noise
- image
- perspective
- game
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000008485 antagonism Effects 0.000 title claims abstract description 19
- 238000001514 detection method Methods 0.000 claims abstract description 66
- 238000013528 artificial neural network Methods 0.000 claims abstract description 26
- 238000011478 gradient descent method Methods 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims description 49
- 230000009466 transformation Effects 0.000 claims description 32
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000005520 cutting process Methods 0.000 claims description 8
- 239000000427 antigen Substances 0.000 claims description 7
- 102000036639 antigens Human genes 0.000 claims description 7
- 108091007433 antigens Proteins 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 7
- 238000009826 distribution Methods 0.000 claims description 6
- 230000000873 masking effect Effects 0.000 claims description 6
- 230000004393 visual impairment Effects 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 3
- 230000007123 defense Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 abstract description 3
- 238000004590 computer program Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/75—Enforcing rules, e.g. detecting foul play or generating lists of cheating players
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8076—Shooting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Graphics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种抵御AI自瞄作弊的对抗贴图生成方法及装置,包括:将噪声数据集输入至基于神经网络预先构建的检测器,获取神经网络检测结果;根据真实分类标签和神经网络检测结果计算损失值Loss;将损失值Loss进行反向传播,通过梯度下降法更新所述噪声图像n;重复迭代直到损失值Loss收敛输出训练好的噪声图像;将训练好的噪声图像转化为对抗贴图;将训练好的噪声图像与游戏物品贴图文件相融合,对抗贴图与游戏地面贴图文件相融合用于抵御AI自瞄作弊;所述对抗贴图使AI自瞄作弊程序将游戏画面识别成多个玩家目标,从而降低游戏中正常游戏玩家被AI自瞄作弊程序锁定的概率;保证游戏竞技的公平性。
Description
技术领域
本发明属于机器视觉技术领域,具体涉及抵御AI自瞄作弊的对抗贴图生成方法及装置。
背景技术
FPS(First-person Shooting game)是一种以第一人称视角为主的射击游戏。由于其简单的操作和身临其境的游戏体验,这类游戏大受欢迎,受众广泛。在FPS游戏中,玩家可以通过操控鼠标、手柄等设备自由选择视角并进行射击。但是,近年来随着深度学习技术的快速发展,一些玩家基于目标检测算法开发出了AI自瞄作弊程序。
AI自瞄作弊程序通过目标检测模型对游戏画面进行实时检测,快速准确地识别并锁定游戏中对手玩家的位置。随后将位置坐标回传给操作端,使得游戏视角自动发生改变并持续锁定对手玩家身上。FPS游戏自发行以来便有玩家通过修改游戏进程或者数据文件的方法在游戏中获取优势。而AI自瞄作弊由于其独特的作弊原理,在极大地提高射击命中率的同时,可以轻松躲避作弊检测促使开发者无法对此类作弊玩家进行惩罚。截止目前,业内尚未开发出切实可行的反AI自瞄作弊方案。AI自瞄作弊的出现严重打破了游戏公平性,影响到了玩家体验,同时造成了游戏开发商损失。
发明内容
本发明提供了一种抵御AI自瞄作弊的对抗贴图生成方法及装置,生成不影响游戏场景视觉效果的对抗贴图;所述对抗贴图使AI自瞄作弊程序将游戏画面识别成多个玩家目标,从而降低游戏中正常游戏玩家被AI自瞄作弊程序锁定的概率。
为达到上述目的,本发明所采用的技术方案是:
本发明第一方面提供了一种抵御AI自瞄作弊的对抗贴图生成方法,包括:
生成满足高斯分布的噪声图像n;对噪声图像n进行数据扩充获得包含t张噪声图像n'的噪声图像集;获取游戏场景作为训练图像,将所述噪声图像n'与训练图像/>进行像素融合形成噪声训练图像/>,并构建噪声数据集;
将噪声数据集输入至基于神经网络预先构建的检测器,获取神经网络检测结果;根据神经网络检测结果计算损失值/>;
将损失值进行反向传播,通过梯度下降法更新所述噪声图像n;重复迭代直到损失值/>收敛输出训练好的噪声图像/>;将训练好的噪声图像/>转化为对抗贴图;
将训练好的噪声图像与游戏物品贴图文件相融合,对抗贴图与游戏地面贴图文件相融合用于抵御AI自瞄作弊。
优选的,对噪声图像n进行数据扩充获得包含t张噪声图像的噪声图像集的方法包括:
将噪声图像n按中心点分别顺时针旋转90度、180度、270度,并制作成t=4张噪声图像n',图像旋转公式如下:
;
公式中,为噪声图像n的像素点的坐标,/> 为噪声图像/>的像素点的坐标,/>表示旋转角度。
优选的,根据神经网络检测结果计算损失值的方法,表达公式为:
;
公式中,和/>为设定的超参数;/>表示为检测结果中平均目标类置信度分数总和;/>表示为可视化损失值。
优选的,计算所述可视化损失值,表达公式为:
;公式中,/>表示为噪声图像/>的各个像素点像素值;/>表示为噪声数据集/>中第i张噪声训练图像的各个像素点像素值;N为输入检测器的噪声训练图像/>的总数。
优选的,计算检测结果中平均目标类置信度分数总和的方法包括:
计算所述检测器对噪声数据集中噪声训练图像/>检测出的第k个候选框属于类别C的置信度分数/>,表达公式为:
;公式中,/>为对噪声训练图像/>检测出的第k个候选框包含对象的概率,/>为对噪声训练图像/>检测出的第k个候选框中包含的对象属于类别C的概率;h表示为噪声训练图像/>;
所述检测器输出的检测结果为K个候选框预测向量,计算检测结果中平均目标类置信度分数总和的表达公式为:
;公式中,N为输入检测器的噪声训练图像的总数。
优选的,将训练好的噪声图像转化为对抗贴图的方法包括:
使用棋盘定位法获取游戏地面的真实坐标和视图显示坐标,根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵;根据游戏地面的视图显示坐标制作成蒙板图像;
将训练好的噪声图像输入至检测器进行目标检测获得目标检测框;
将所述蒙板图像遮罩在噪声图像中检测框结果数量最多的区域并进行裁剪,得到对抗子贴图;
根据透视变换矩阵将对抗子贴图进行透视变换得到透视贴图;将透视贴图沿两条对角线裁剪成四张直角三角形图像,保留正下直角三角形图像作为的透视子贴图/>;
将透视子贴图按顺时针分别旋转90度、180度、270度获得透视子贴图/>、透视子贴图/>和透视子贴图/>,对透视子贴图/>、透视子贴图/>、透视子贴图/>和透视子贴图/>拼接得到最终的对抗贴图。
优选的,根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵的方法包括:
通过棋盘定位法获取游戏地面四个角的真实坐标分别为,/>,,/>,由于视角产生透视变换的视图显示坐标为/>,/>,,/>;根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵M,表达公式为:
;
公式中,为游戏地面的真实坐标,/>为游戏地面的视图显示坐标;为透视变换矩阵/>参数值。
优选的,将透视贴图沿两条对角线裁剪成四张直角三角形图像,表达公式为:;其中,/>和/>表示为透视贴图的像素点坐标,/>为坐标像素点/>对应像素值。
本发明第二方面提供了一种抵御AI自瞄作弊的对抗贴图生成装置,其特征在于,包括:
获取模块,用于生成满足高斯分布的噪声图像;对噪声图像/>进行数据扩充获得t张噪声图像/>的噪声图像集;获取游戏场景作为训练图像/>,将所述噪声图像/>与训练图像/>进行像素融合形成噪声训练图像/>,并构建噪声数据集;
输入模块,用于将噪声数据集输入至基于神经网络预先构建的检测器,获取神经网络检测结果;根据神经网络检测结果计算损失值/>;
训练模块,用于将损失值进行反向传播,通过梯度下降法更新所述噪声图像;重复迭代直到损失值/>收敛输出训练好的噪声图像/>;
抵御模块,用于将训练好的噪声图像转化为对抗贴图;将训练好的噪声图像与游戏物品贴图文件相融合,对抗贴图与游戏地面贴图文件相融合用于抵御AI自瞄作弊。
优选的,所述抵御模块作用于将训练好的噪声图像转化为对抗贴图的方法包括:
使用棋盘定位法获取游戏地面的真实坐标和视图显示坐标,根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵;根据游戏地面的视图显示坐标制作成蒙板图像;
将训练好的噪声图像输入至检测器进行目标检测获得目标检测框;
将所述蒙板图像遮罩在噪声图像中检测框结果数量最多的区域并进行裁剪,得到对抗子贴图;
根据透视变换矩阵将对抗子贴图进行透视变换得到透视贴图;将透视贴图沿两条对角线裁剪成四张直角三角形图像,保留正下直角三角形图像作为的透视子贴图/>;
将透视子贴图按顺时针分别旋转90度、180度、270度获得透视子贴图/>、透视子贴图/>和透视子贴图/>,对透视子贴图/>、透视子贴图/>、透视子贴图/>和透视子贴图/>拼接得到最终的对抗贴图。
与现有技术相比,本发明的有益效果:
本发明将噪声数据集输入至基于神经网络预先构建的检测器,获取神经网络检测结果;根据神经网络检测结果计算损失值/>;将损失值/>进行反向传播,通过梯度下降法更新所述噪声图像/>;重复迭代直到损失值/>收敛输出训练好的噪声图像/>;将训练好的噪声图像/>转化为对抗贴图;将训练好的噪声图像/>与游戏物品贴图文件相融合,对抗贴图与游戏地面贴图文件相融合用于抵御AI自瞄作弊;对抗贴图可以使AI自瞄作弊程序将带有对抗贴图的游戏画面识别成多个玩家目标,从而降低游戏中正常游戏玩家被AI自瞄作弊程序锁定的概率。
本发明将所述蒙板图像遮罩在噪声图像中检测框结果数量最多的区域并进行裁剪,得到对抗子贴图;根据透视变换矩阵/>将对抗子贴图进行透视变换得到透视贴图;将透视贴图沿两条对角线裁剪成四张直角三角形图像,保留正下直角三角形图像作为的透视子贴图/>;将透视子贴图/>按顺时针分别旋转90度、180度、270度获得透视子贴图/>、透视子贴图/>和透视子贴图/>,对透视子贴图/>、透视子贴图/>、透视子贴图/>和透视子贴图/>拼接得到最终的对抗贴图;保证可以从多个空间视角有效抵御AI自瞄作弊。
附图说明
图1是实施例1提供的对噪声图像更新迭代的流程图;
图2是实施例1提供的噪声图像转化为对抗贴图的流程图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例1
如图1至图2所示,本实施例公开了一种抵御AI自瞄作弊的对抗贴图生成方法,包括:
生成满足高斯分布的噪声图像,对噪声图像/>进行数据扩充获得包含t张噪声图像/>的噪声图像集的方法包括:
将噪声图像n按中心点分别顺时针旋转90度、180度、270度,并制作成t=4张噪声图像,图像旋转公式如下:
;
公式中,为噪声图像/>的像素点的坐标,/> 为噪声图像/>的像素点的坐标,/>表示旋转角度,/>取值范围为/>。
获取游戏场景作为训练图像,所述训练图像/>包含真实分类标签;将所述噪声图像/>与训练图像/>进行像素融合形成噪声训练图像,构建噪声数据集/>;将噪声数据集/>输入至基于神经网络预先构建的检测器,获取神经网络检测结果;根据神经网络检测结果计算损失值/>,表达公式为:
;
公式中,和/>为设定的超参数;/>表示为检测结果中平均目标类置信度分数总和;/>表示为可视化损失值。
计算所述可视化损失值,表达公式为:;
公式中,表示为噪声图像/>的各个像素点像素值;/>表示为噪声数据集/>中第i张噪声训练图像/>的各个像素点像素值;N为输入检测器的噪声训练图像/>的总数。
计算检测结果中平均目标类置信度分数总和的方法包括:
计算所述检测器对噪声数据集中噪声训练图像/>检测出的第k个候选框属于类别C的置信度分数/>,表达公式为:
;
公式中,为对噪声训练图像/>检测出的第k个候选框包含对象的概率,为对噪声训练图像/>检测出的第k个候选框中包含的对象属于类别C的概率;h表示为噪声训练图像/>;
所述检测器输出的检测结果为K个候选框预测向量,计算检测结果中平均目标类置信度分数总和的表达公式为:
;
公式中,N为输入检测器的噪声训练图像的总数。
将损失值进行反向传播,通过梯度下降法更新所述噪声图像/>;重复迭代直到损失值/>收敛输出训练好的噪声图像/>;
如图2所示,将训练好的噪声图像转化为对抗贴图的方法包括:
使用棋盘定位法获取游戏地面的真实坐标和视图显示坐标,根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵M;根据游戏地面的视图显示坐标制作成蒙板图像;
将训练好的噪声图像输入至检测器进行目标检测获得目标检测框;将所述蒙板图像遮罩在噪声图像/>中检测框结果数量最多的区域并进行裁剪,得到对抗子贴图;根据透视变换矩阵/>将对抗子贴图进行透视变换得到透视贴图;将透视贴图沿两条对角线裁剪成四张直角三角形图像,保留正下直角三角形图像作为的透视子贴图/>;
将透视子贴图按顺时针分别旋转90度、180度、270度获得透视子贴图/>、透视子贴图/>和透视子贴图/>,对透视子贴图/>、透视子贴图/>、透视子贴图/>和透视子贴图/>拼接得到最终的对抗贴图。
根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵的方法包括:
通过棋盘定位法获取游戏地面四个角的真实坐标分别为,/>,,/>,由于视角产生透视变换的视图显示坐标为/>,/>,,/>;根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵M,表达公式为:
;
公式中,为游戏地面的真实坐标,/>为游戏地面的视图显示坐标;为透视变换矩阵/>参数值。
将透视贴图沿两条对角线裁剪成四张直角三角形图像,表达公式为:
;
其中,和/>表示为透视贴图的像素点坐标,/>为坐标像素点/>对应像素值。
实时获取游戏画面,将对抗贴图和游戏画面进行像素融合抵御AI自瞄作弊;对抗贴图在不影响游戏场景视觉效果的前提下,使AI自瞄作弊程序将带有对抗贴图的游戏画面识别成多个玩家目标,从而降低游戏中正常游戏玩家被AI自瞄作弊程序锁定的概率。
实施例2
本实施例公开了一种抵御AI自瞄作弊的对抗贴图生成装置,所述对抗贴图生成装置可以应用实施例1所述对抗贴图生成方法,对抗贴图生成装置包括:
获取模块,用于生成满足高斯分布的噪声图像;对噪声图像/>进行数据扩充获得t张噪声图像/>的噪声图像集;获取游戏场景作为训练图像/>,将所述噪声图像/>与训练图像/>进行像素融合形成噪声训练图像/>,并构建噪声数据集;
输入模块,用于将噪声数据集输入至基于神经网络预先构建的检测器,获取神经网络检测结果;根据神经网络检测结果计算损失值/>;
训练模块,用于将损失值进行反向传播,通过梯度下降法更新所述噪声图像;重复迭代直到损失值/>收敛输出训练好的噪声图像/>;
抵御模块,用于将训练好的噪声图像转化为对抗贴图;将训练好的噪声图像与游戏物品贴图文件相融合,对抗贴图与游戏地面贴图文件相融合用于抵御AI自瞄作弊。
所述抵御模块作用于将训练好的噪声图像转化为对抗贴图的方法包括:
使用棋盘定位法获取游戏地面的真实坐标和视图显示坐标,根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵;根据游戏地面的视图显示坐标制作成蒙板图像;
将训练好的噪声图像输入至检测器进行目标检测获得目标检测框;
将所述蒙板图像遮罩在噪声图像中检测框结果数量最多的区域并进行裁剪,得到对抗子贴图;
根据透视变换矩阵将对抗子贴图进行透视变换得到透视贴图;将透视贴图沿两条对角线裁剪成四张直角三角形图像,保留正下直角三角形图像作为的透视子贴图/>;
将透视子贴图按顺时针分别旋转90度、180度、270度获得透视子贴图/>、透视子贴图/>和透视子贴图/>,对透视子贴图/>、透视子贴图/>、透视子贴图/>和透视子贴图/>拼接得到最终的对抗贴图。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (8)
1.一种抵御AI自瞄作弊的对抗贴图生成方法,其特征在于,包括:
生成满足高斯分布的噪声图像n;对噪声图像n进行数据扩充获得包含t张噪声图像n'的噪声图像集;获取游戏场景作为训练图像,将所述噪声图像n'与训练图像进行像素融合形成噪声训练图像/>,并构建噪声数据集;
将噪声数据集输入至基于神经网络预先构建的检测器,获取神经网络检测结果;根据神经网络检测结果计算损失值/>;
将损失值进行反向传播,通过梯度下降法更新所述噪声图像n;重复迭代直到损失值/>收敛输出训练好的噪声图像/>;
将训练好的噪声图像转化为对抗贴图的过程为:使用棋盘定位法获取游戏地面的真实坐标和视图显示坐标,根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵;根据游戏地面的视图显示坐标制作成蒙板图像;将训练好的噪声图像/>输入至检测器进行目标检测获得目标检测框;将所述蒙板图像遮罩在噪声图像/>中检测框结果数量最多的区域并进行裁剪,得到对抗子贴图;根据透视变换矩阵/>将对抗子贴图进行透视变换得到透视贴图;将透视贴图沿两条对角线裁剪成四张直角三角形图像,保留正下直角三角形图像作为的透视子贴图/>;将透视子贴图/>按顺时针分别旋转90度、180度、270度获得透视子贴图/>、透视子贴图/>和透视子贴图/>,对透视子贴图/>、透视子贴图/>、透视子贴图/>和透视子贴图/>拼接得到最终的对抗贴图;
将训练好的噪声图像与游戏物品贴图文件相融合,对抗贴图与游戏地面贴图文件相融合用于抵御AI自瞄作弊。
2.根据权利要求1所述的一种抵御AI自瞄作弊的对抗贴图生成方法,其特征在于,对噪声图像n进行数据扩充获得包含t张噪声图像的噪声图像集的方法包括:
将噪声图像n按中心点分别顺时针旋转90度、180度、270度,并制作成t=4张噪声图像n',图像旋转公式如下:
公式中,/>为噪声图像n的像素点的坐标,/> 为噪声图像/>的像素点的坐标,/>表示旋转角度。
3.根据权利要求1所述的一种抵御AI自瞄作弊的对抗贴图生成方法,其特征在于,根据神经网络检测结果计算损失值的方法,表达公式为:
公式中,/>和/>为设定的超参数;/>表示为检测结果中平均目标类置信度分数总和;/>表示为可视化损失值。
4.根据权利要求3所述的一种抵御AI自瞄作弊的对抗贴图生成方法,其特征在于,计算所述可视化损失值,表达公式为:
公式中,/>表示为噪声图像/>的各个像素点像素值;/>表示为噪声数据集/>中第i张噪声训练图像/>的各个像素点像素值;N为输入检测器的噪声训练图像/>的总数。
5.根据权利要求3所述的一种抵御AI自瞄作弊的对抗贴图生成方法,其特征在于,计算检测结果中平均目标类置信度分数总和的方法包括:
计算所述检测器对噪声数据集中噪声训练图像/>检测出的第k个候选框属于类别C的置信度分数/>,表达公式为:
公式中,/>为对噪声训练图像/>检测出的第k个候选框包含对象的概率,/>为对噪声训练图像/>检测出的第k个候选框中包含的对象属于类别C的概率;h表示为噪声训练图像/>;
所述检测器输出的检测结果为K个候选框预测向量,计算检测结果中平均目标类置信度分数总和的表达公式为:
公式中,N为输入检测器的噪声训练图像/>的总数。
6.根据权利要求1所述的一种抵御AI自瞄作弊的对抗贴图生成方法,其特征在于,根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵的方法包括:
通过棋盘定位法获取游戏地面四个角的真实坐标分别为,/>,/>,,由于视角产生透视变换的视图显示坐标为/>,/>,/>,;根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵M,表达公式为:
公式中,/>为游戏地面的真实坐标,/>为游戏地面的视图显示坐标;/>为透视变换矩阵/>参数值。
7.根据权利要求1所述的一种抵御AI自瞄作弊的对抗贴图生成方法,其特征在于,将透视贴图沿两条对角线裁剪成四张直角三角形图像,表达公式为:其中,/>和/>表示为透视贴图的像素点坐标,/>为坐标像素点/>对应像素值。
8.一种抵御AI自瞄作弊的对抗贴图生成装置,其特征在于,包括:
获取模块,用于生成满足高斯分布的噪声图像;对噪声图像/>进行数据扩充获得t张噪声图像/>的噪声图像集;获取游戏场景作为训练图像/>,将所述噪声图像/>与训练图像/>进行像素融合形成噪声训练图像/>,并构建噪声数据集;
输入模块,用于将噪声数据集输入至基于神经网络预先构建的检测器,获取神经网络检测结果;根据神经网络检测结果计算损失值/>;
训练模块,用于将损失值进行反向传播,通过梯度下降法更新所述噪声图像/>;重复迭代直到损失值/>收敛输出训练好的噪声图像/>;
抵御模块,用于使用棋盘定位法获取游戏地面的真实坐标和视图显示坐标,根据游戏地面的真实坐标和视图显示坐标计算出透视变换矩阵;根据游戏地面的视图显示坐标制作成蒙板图像;将训练好的噪声图像/>输入至检测器进行目标检测获得目标检测框;将所述蒙板图像遮罩在噪声图像/>中检测框结果数量最多的区域并进行裁剪,得到对抗子贴图;根据透视变换矩阵/>将对抗子贴图进行透视变换得到透视贴图;将透视贴图沿两条对角线裁剪成四张直角三角形图像,保留正下直角三角形图像作为的透视子贴图/>;将透视子贴图/>按顺时针分别旋转90度、180度、270度获得透视子贴图/>、透视子贴图/>和透视子贴图/>,对透视子贴图/>、透视子贴图/>、透视子贴图/>和透视子贴图/>拼接得到最终的对抗贴图;将训练好的噪声图像/>与游戏物品贴图文件相融合,对抗贴图与游戏地面贴图文件相融合用于抵御AI自瞄作弊。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311250057.2A CN116993893B (zh) | 2023-09-26 | 2023-09-26 | 一种抵御ai自瞄作弊的对抗贴图生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311250057.2A CN116993893B (zh) | 2023-09-26 | 2023-09-26 | 一种抵御ai自瞄作弊的对抗贴图生成方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116993893A CN116993893A (zh) | 2023-11-03 |
CN116993893B true CN116993893B (zh) | 2024-01-12 |
Family
ID=88523529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311250057.2A Active CN116993893B (zh) | 2023-09-26 | 2023-09-26 | 一种抵御ai自瞄作弊的对抗贴图生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116993893B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117523342B (zh) * | 2024-01-04 | 2024-04-16 | 南京信息工程大学 | 一种高迁移性对抗样本生成方法、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018143709A (ja) * | 2017-03-09 | 2018-09-20 | 株式会社サンセイアールアンドディ | 遊技機 |
CN109598799A (zh) * | 2018-11-30 | 2019-04-09 | 南京信息工程大学 | 一种基于CycleGAN的虚拟切割方法 |
CN112642161A (zh) * | 2020-12-15 | 2021-04-13 | 完美世界征奇(上海)多媒体科技有限公司 | 射击游戏的作弊检测、模型训练方法、设备及存储介质 |
CN114201632A (zh) * | 2022-02-18 | 2022-03-18 | 南京航空航天大学 | 一种面向多标记目标检测任务的标签带噪数据集扩增方法 |
CN115193059A (zh) * | 2022-08-01 | 2022-10-18 | 河海大学 | 一种射击游戏作弊检测方法 |
CN115337649A (zh) * | 2022-07-01 | 2022-11-15 | 网易(杭州)网络有限公司 | 外挂检测模型的训练方法、外挂检测方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201709199D0 (en) * | 2017-06-09 | 2017-07-26 | Delamont Dean Lindsay | IR mixed reality and augmented reality gaming system |
-
2023
- 2023-09-26 CN CN202311250057.2A patent/CN116993893B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018143709A (ja) * | 2017-03-09 | 2018-09-20 | 株式会社サンセイアールアンドディ | 遊技機 |
CN109598799A (zh) * | 2018-11-30 | 2019-04-09 | 南京信息工程大学 | 一种基于CycleGAN的虚拟切割方法 |
CN112642161A (zh) * | 2020-12-15 | 2021-04-13 | 完美世界征奇(上海)多媒体科技有限公司 | 射击游戏的作弊检测、模型训练方法、设备及存储介质 |
CN114201632A (zh) * | 2022-02-18 | 2022-03-18 | 南京航空航天大学 | 一种面向多标记目标检测任务的标签带噪数据集扩增方法 |
CN115337649A (zh) * | 2022-07-01 | 2022-11-15 | 网易(杭州)网络有限公司 | 外挂检测模型的训练方法、外挂检测方法及装置 |
CN115193059A (zh) * | 2022-08-01 | 2022-10-18 | 河海大学 | 一种射击游戏作弊检测方法 |
Non-Patent Citations (2)
Title |
---|
Hijacking Tracker: A Powerful Adversarial Attack on Visual Tracking;Xiyu Yan et al;《IEEE》;2897-2901 * |
基于机器学习的网络游戏作弊行为识别应用研究;车林耿;《优秀硕士学位论文全文数据库 信息科技》(第12期);1-91 * |
Also Published As
Publication number | Publication date |
---|---|
CN116993893A (zh) | 2023-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11532172B2 (en) | Enhanced training of machine learning systems based on automatically generated realistic gameplay information | |
EP4002198A1 (en) | Posture acquisition method and device, and key point coordinate positioning model training method and device | |
CN111260762B (zh) | 一种动画实现方法、装置、电子设备和存储介质 | |
US9943755B2 (en) | Device for identifying and tracking multiple humans over time | |
CN105229666B (zh) | 3d图像中的运动分析 | |
CN102331840B (zh) | 基于回环运动的用户选择和导航 | |
US9465980B2 (en) | Pose tracking pipeline | |
US8267781B2 (en) | Visual target tracking | |
CN116993893B (zh) | 一种抵御ai自瞄作弊的对抗贴图生成方法及装置 | |
US20100197391A1 (en) | Visual target tracking | |
CN113577774A (zh) | 虚拟对象生成方法、装置、电子设备及存储介质 | |
Terroba et al. | Finding optimal strategies in tennis from video sequences | |
CN113312840A (zh) | 一种基于强化学习的羽毛球对弈方法及系统 | |
CN112295224A (zh) | 三维特效生成方法及装置、计算机存储介质、电子设备 | |
CN108269265A (zh) | 基于深度学习的台球击球位置测定方法及其装置 | |
CN112887595B (zh) | 一种针对动态多目标的相机即时自动规划方法 | |
CN114220312A (zh) | 虚拟训练方法、装置以及虚拟训练系统 | |
RU2599699C1 (ru) | Способ регистрации и анализа соревновательных игровых действий спортсменов | |
CN115116087A (zh) | 一种动作考核方法、系统、存储介质和电子设备 | |
TWI450264B (zh) | 用於模擬中之圖像對映的方法及電腦程式產品 | |
CN109917907B (zh) | 一种基于卡片的动态故事板交互方法 | |
Yohannes et al. | Virtual reality in puppet game using depth sensor of gesture recognition and tracking | |
Ranasinghe et al. | ChessEye: An Integrated Framework for Accurate and Efficient Chessboard Reconstruction | |
JP2023178888A (ja) | 判定装置、判定方法、及びプロググラム | |
US11921918B2 (en) | Heads up display in virtual reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |