CN111753868A - 对黑盒对象检测算法的对抗攻击 - Google Patents

对黑盒对象检测算法的对抗攻击 Download PDF

Info

Publication number
CN111753868A
CN111753868A CN202010194023.6A CN202010194023A CN111753868A CN 111753868 A CN111753868 A CN 111753868A CN 202010194023 A CN202010194023 A CN 202010194023A CN 111753868 A CN111753868 A CN 111753868A
Authority
CN
China
Prior art keywords
object detection
detection algorithm
black
input data
box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010194023.6A
Other languages
English (en)
Inventor
W.童
S.曾
U.P.穆达利格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of CN111753868A publication Critical patent/CN111753868A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

公开一种对传感器的黑盒对象检测算法产生对抗攻击的系统和方法,包括从黑盒对象检测算法获得初始训练数据集。黑盒对象检测算法对初始输入数据执行对象检测,以提供黑盒对象检测算法输出,该黑盒对象检测算法输出提供初始训练数据集。用初始训练数据集训练替代模型,使得替代模型的输出对组成初始训练数据集的黑盒对象检测算法输出进行复制。黑盒对象检测算法的操作细节是未知的,替代模型的操作细节是已知的。替代模型用于执行对抗攻击。对抗攻击是指识别使得黑盒对象检测算法无法执行精确检测的对抗输入数据。

Description

对黑盒对象检测算法的对抗攻击
技术领域
本主题公开涉及对黑盒对象检测算法的对抗攻击。
背景技术
对象检测算法与传感器(例如,无线电检测和测距(雷达)系统、照相机、光检测和测距(激光雷达)系统)一起使用。对象检测算法是指对传感器获得的数据进行特定处理,以便检测传感器视场中的一个或多个目标。在雷达系统中,对象检测算法可以包括执行一个或多个傅立叶变换,随后是波束形成过程,以识别和定位对象。在基于相机的系统中,对象检测算法可以包括识别高于一阈值的一组像素值。对抗攻击指的是确定检测算法的操作极限(operational limit)的过程。本质上,生成了对象检测算法失败的数据。当对象检测算法的功能细节已知时,根据已知的过程,对象检测算法的对抗攻击变得更容易。然而,对象检测算法可能是未知的,并且可能被视为黑盒。因此,期望对黑盒对象检测算法提供对抗攻击。
发明内容
在一个示例性实施例中,一种对传感器的黑盒对象检测算法产生对抗攻击的方法包括,从黑盒对象检测算法获得初始训练数据集。黑盒对象检测算法对初始输入数据执行对象检测,以提供黑盒对象检测算法输出,该黑盒对象检测算法输出提供初始训练数据集。该方法还包括用初始训练数据集来训练一替代模型,使得来自替代模型的输出能对组成初始训练数据集的黑盒对象检测算法输出进行复制。黑盒对象检测算法的操作细节是未知的,替代模型的操作细节是已知的。替代模型用于执行对抗攻击,其中对抗攻击是指识别使得黑盒对象检测算法无法执行精确检测的对抗输入数据。
除了本文描述的一个或多个特征之外,该方法还包括从传感器收集初始输入数据。
除了本文描述的一个或多个特征之外,收集初始输入数据包括从照相机收集图像。
除了在此描述的一个或多个特征之外,该方法还包括获得黑盒对象检测算法输出,作为图像中的被检测对象周围的边界框,以及处理黑盒对象检测算法输出,以获得初始训练数据集。
除了在此描述的一个或多个特征之外,该处理包括,在边界框围绕被检测对象的情况下将网格覆盖在图像上,并且基于网格的单元中边界框的存在或百分比而将值分配给网格的每个单元。
除了本文描述的一个或多个特征之外,该方法还包括为替代模型选择架构。
除了本文描述的一个或多个特征之外,该方法还包括修改初始输入数据以获得第二输入数据。
除了本文描述的一个或多个特征之外,该方法还包括基于对第二输入数据执行对象检测的黑盒对象检测算法来获得第二训练数据集。
除了本文描述的一个或多个特征之外,训练该替代模型包括基于使用第二输入数据确保替代模型的输出能对第二训练数据集进行复制。
除了本文描述的一个或多个特征之外,该方法还包括重复以下过程:修改初始输入数据,以获得新输入数据,基于对新的输入数据执行对象检测的黑盒对象检测算法获得新的训练数据,并且使用新的训练数据训练该替代模型。
在另一示例性实施例中,一种对黑盒对象检测算法产生对抗攻击的系统包括提供初始输入数据的传感器和从黑盒对象检测算法获得初始训练数据集的处理器。黑盒对象检测算法对初始输入数据执行对象检测,以提供组成初始训练数据集的黑盒对象检测算法输出。处理器用初始训练数据集来训练一替代模型,使得来自该替代模型的输出能对提供初始训练数据集的黑盒对象检测算法输出进行复制。黑盒对象检测算法的操作细节是未知的,替代模型的操作细节是已知的。处理器使用替代模型来执行对抗攻击。对抗攻击是指识别使得黑盒对象检测算法无法执行精确检测的对抗输入数据。
除了本文描述的一个或多个特征之外,传感器是照相机。
除了本文描述的一个或多个特征之外,初始输入数据包括来自照相机的图像。
除了本文描述的一个或多个特征之外,黑盒对象检测算法输出包括围绕图像中的被检测对象的边界框,并且处理器处理黑盒对象检测算法输出,以获得初始训练数据集。
除了本文描述的一个或多个特征之外,处理器还被配置为通过在边界框围绕被检测对象的情况下将网格覆盖在图像上,并且基于网格的单元中边界框的存在或百分比而将值分配给网格的每个单元,从而处理黑盒对象检测算法输出。
除了本文描述的一个或多个特征之外,处理器还被配置成修改初始输入数据以获得第二输入数据。
除了本文描述的一个或多个特征之外,处理器还被配置为基于对第二输入数据执行对象检测的黑盒对象检测算法来获得第二训练数据集。
除了本文描述的一个或多个特征之外,处理器还被配置为训练替代模型,以确保基于使用第二输入数据确保替代模型的输出能对第二训练数据集进行复制。
除了本文描述的一个或多个特征之外,处理器还被配置为重复以下过程:修改初始输入数据,以获得新输入数据,基于对新的输入数据执行对象检测的黑盒对象检测算法获得新的训练数据,并且使用新的训练数据训练该替代模型。
除了本文描述的一个或多个特征之外,传感器在车辆中。
当结合附图时,根据以下详细描述,本公开的上述特征和优点以及其他特征和优点将变得显而易见。
附图说明
其他特征、优点和细节仅作为示例出现在以下详细描述中,详细描述参考附图,其中:
图1是根据一个或多个实施例的具有传感器的车辆的框图,所述传感器经历对黑盒对象检测算法的对抗攻击;
图2是根据一个或多个实施例的对传感器的黑盒对象检测算法产生对抗攻击的方法的过程流程;和
图3示出了根据一个或多个实施例的训练数据集的示例性生成,作为对黑盒对象检测算法生成对抗攻击的一部分。
具体实施方式
以下描述本质上仅是示例性的,并不旨在限制本公开、其应用或用途。应当理解,在所有附图中,相应的附图标记表示相似或相应的部件和特征。
如前所述,对象检测算法与传感器(例如,照相机、雷达系统)获得的数据结合使用,以获得关于传感器视场中的一个或多个对象的信息。对象检测算法预测对象的类别或类型及其位置和大小。然而,现有的对抗攻击方法(adversarial attacking method)有助于分类的特征,但不利于检测方面。可以采取对抗攻击来确定由传感器获得的数据的范围,对于该范围,对象检测算法能正确地操作(即,准确地检测对象)。具体而言,在传感器视野中存在对象时传感器所获得的数据可被修改,直到对象检测算法不再检测到对象。如前所述,知道对象检测算法的细节可以使得成功的对抗攻击能相对更直接地实现。然而,对象检测算法的操作细节可能是未知的。在这种情况下,必须将对象检测算法视为一个黑盒(black box),这意味着只能确定给定一组已知输入情况下的输出。
本文详述的系统和方法的实施例涉及对黑盒对象检测算法的对抗攻击。基于只知道针对一组已知输入的对象检测算法得到的输出,开发了用于对象检测算法的替代模型。因为替代模型的细节是已知的,所以替代模型可以用于开发对抗攻击,然后可以在对象检测算法上实现对抗攻击。一个或多个实施例可以涉及作为车辆(例如,汽车、卡车、建筑设备、农场设备、自动化工厂设备)一部分的传感器。根据本文详述的一个或多个实施例开发的替代模型可用于设计针对车辆传感器使用的对象检测算法的对抗攻击。
根据示例性实施例,图1是具有传感器115的车辆100的框图,传感器115经历针对黑盒对象检测算法的对抗攻击。图1所示的车辆100是汽车101。车辆100包括一个或多个传感器115,以检测对象150,例如图1所示的行人155。图1的示例性车辆100包括照相机120、雷达系统130和激光雷达(lidar)系统140。由这些传感器115中的每一个获得的数据用检测算法进行处理。检测算法可以在传感器115内或由控制器110实现。图1所示的示例性传感器115以及传感器115和控制器110的示例性布置可以根据替代实施例进行修改。
对于一个或多个传感器115,通过传感器115或控制器110内的处理电路可以对对象检测算法进行对抗攻击。因为传感器115的对象检测算法的对抗攻击和特征化(characterization)可以离线完成,所以也可以使用另一控制器110(不一定是在车辆100内)的处理电路。如前所述,根据一个或多个实施例,为了执行对抗攻击,不需要知道对象检测算法的操作细节。出于解释的目的,照相机120被描述为示例性传感器115,其对象检测经历控制器110的对抗攻击。控制器110可以包括处理电路,该处理电路可以包括专用集成电路(ASIC)、电子电路、执行一个或多个软件或固件程序的处理器(共享的、专用的或成组的)和存储器、组合逻辑电路和/或提供所述功能的其他合适的组件。
图2是根据一个或多个实施例的对传感器115的黑盒对象检测算法产生对抗攻击的方法200的过程流程。如图1所示,使用基于对抗攻击而被特征化的对象检测算法的传感器115可以在车辆100中。在块210,过程包括为替代模型选择架构(architecture)。可以选择任何已知的架构。例如,当传感器115是照相机120并且对象检测算法是图像检测算法时,可以选择卷积(convolutional)编码器-解码器架构。卷积编码器-解码器是一种神经网络架构,包括创建特征图(feature map)和像素分类层(pixel-wise classification layer)的编码器-解码器对。图像中的每个像素都被分类,并且分类包括感兴趣的对象。
在块220从传感器115收集数据,并在块230获得训练集,是指收集作为对象检测算法的输入的数据,并从对象检测算法获得结果。该数据用于获得用于替代模型的初始训练集。在传感器115是照相机120的示例性情况下,数据是由对象检测算法处理的图像S,以便识别图像中任何感兴趣的对象。在替代模型是卷积编码器-解码器的示例性情况下,基于图像S的训练集D可以表示为:
Figure BDA0002416929030000051
在等式1中,
Figure BDA0002416929030000052
是组成图像S的每个图像(即像素矩阵),而O表示实际的对象检测算法,即被视为黑盒的算法。因此,
Figure BDA0002416929030000053
(表示使用(黑盒)对象检测算法对图像
Figure BDA0002416929030000054
获得的检测结果。这是替代模型也必须提供的结果,以便充当实际对象检测算法的替代,并且参考图3进一步讨论。
在块240,过程包括基于数据(最初,在块220)和训练集(在块230)训练替代模型。在替代模型是卷积编码器-解码器的示例性情况下,神经网络的参数θF必须在训练过程中确定。在训练期间,在示例性情况下由替代模型使用的卷积编码器-解码器的参数θF被调整,以使得替代模型的结果尽可能接近地匹配实际(黑盒)对象检测算法的结果。
在块250,修改数据是指修改初始数据(在块220处收集)。在数据是图像S的示例性情况下,基于雅可比(Jacobian-based)的数据集增强可以如下执行:
Figure BDA0002416929030000061
在等式2中,
Figure BDA0002416929030000062
是雅可比矩阵(即,检测结果的一阶偏导数的矩阵),并且λ是超参数(即,预定义值),其控制控制雅可比矩阵对原始输入进行多少修改。然后,经修改数据与现有图像S组合,以在块230获得另一个训练集。在块240,该新训练集用于进一步训练替代模型。这种迭代训练(在块250修改数据,在块230获得用于经修改数据的训练集,以及在块240训练替代模型)可以继续,直到达到预定义的最大训练时期数。一个时期(epoch)是指使用训练集中所有可用的例子来更新参数θF的一个周期
一旦替代模型被训练(即,在示例性情况下获得参数θF),在块260,对替代模型执行对抗攻击有助于使得实际(黑盒)对象检测算法特征化,而不知道该算法的细节。在示例性情况下,利用由F表示的替代模型,对抗数据样本
Figure BDA0002416929030000063
可以被确定为:
Figure BDA0002416929030000064
在等式3中,
Figure BDA0002416929030000065
由下式给出:
Figure BDA0002416929030000066
在等式4中,C是成本函数(cost function)。
图3示出了根据一个或多个实施例的训练数据集D的示例性生成(图2的块230),作为对黑盒对象检测算法生成对抗攻击的一部分。在该示例中,传感器115是照相机120。图像S中的图像
Figure BDA0002416929030000067
310包括指示为OBJ的对象。通过提供图像作为实际(黑盒)对象检测算法的输入,获得输出
Figure BDA0002416929030000068
320。基于对象检测算法,输出图像中的对象OBJ在其周围具有边界框(bounding box)325。网格覆盖在该输出图像320上,以获得网格覆盖图像330,其中输出图像被分成多个网格335,这些网格也可以被称为网格的单元或框。通过在出现了边界框325的任何网格335中放置“1”并在每隔一个网格335中放置“0”来生成训练数据340。可选地,对于网格335,可能需要网格335内的边界框325的阈值覆盖(threshold overlap),以接收“1”而不是“0”,或者基于网格335中的边界框325的覆盖百分比,可以向每个网格335排出(issue)0和1之间的实数。如前所述,训练数据340在替代模型的训练期间充当基础事实(ground truth)(在块240)。
尽管已经参考示例性实施例描述了上述公开,但是本领域技术人员将理解,在不脱离其范围的情况下,可以进行各种改变,并且可以用等同物替代其元件。此外,在不脱离本公开的实质范围的情况下,可以进行许多修改以使特定的情况或材料适应本公开的教导。因此,意图是本公开不限于所公开的特定实施例,而是将包括落入其范围内的所有实施例。

Claims (10)

1.一种对传感器的黑盒对象检测算法产生对抗攻击的方法,该方法包括:
从黑盒对象检测算法获得初始训练数据集,其中黑盒对象检测算法对初始输入数据执行对象检测,以提供黑盒对象检测算法输出,该黑盒对象检测算法输出提供初始训练数据集;
用初始训练数据集来训练一替代模型,使得来自替代模型的输出对组成初始训练数据集的黑盒对象检测算法输出进行复制,其中黑盒对象检测算法的操作细节是未知的,并且替代模型的操作细节是已知的;和
使用替代模型来执行对抗攻击,其中对抗攻击是指识别使得黑盒对象检测算法无法执行精确检测的对抗输入数据。
2.根据权利要求1所述的方法,还包括从所述传感器收集所述初始输入数据,其中收集所述初始输入数据包括从照相机收集图像,并且所述方法还包括获得黑盒对象检测算法输出,作为围绕所述图像中的被检测对象的边界框,并且处理所述黑盒对象检测算法输出,以获得所述初始训练数据集,其中所述处理包括,在边界框围绕被检测对象的情况下将网格覆盖在图像上,并且基于网格的单元中边界框的存在或百分比而将值分配给网格的每个单元。
3.根据权利要求1所述的方法,还包括为替代模型选择架构。
4.根据权利要求1的方法,还包括修改初始输入数据,以获得第二输入数据。
5.根据权利要求4的方法,还包括基于对第二输入数据执行对象检测的黑盒对象检测算法来获得第二训练数据集,其中训练该替代模型包括基于使用第二输入数据确保替代模型的输出对第二训练数据集进行复制,并且该方法包括重复以下过程:修改初始输入数据,以获得新的输入数据,基于对新的输入数据执行对象检测的黑盒对象检测算法获得新的训练数据,并且使用新的训练数据训练该替代模型。
6.一种对黑盒对象检测算法产生对抗攻击的系统,该系统包括:
传感器,被配置为提供初始输入数据;
处理器,被配置为从黑盒对象检测算法获得初始训练数据集,其中黑盒对象检测算法对初始输入数据执行对象检测,以提供组成初始训练数据集的黑盒对象检测算法输出,用初始训练数据集来训练一替代模型,使得来自该替代模型的输出对提供初始训练数据集的黑盒对象检测算法输出进行复制,其中黑盒对象检测算法的操作细节是未知的,并且替代模型的操作细节是已知的,并且使用替代模型来执行对抗攻击,其中对抗攻击是指识别使得黑盒对象检测算法无法执行精确检测的对抗输入数据。
7.根据权利要求6所述的系统,其中所述传感器是照相机,所述初始输入数据包括来自所述照相机的图像,所述黑盒对象检测算法输出包括围绕所述图像中的被检测对象的边界框,并且所述处理器处理所述黑盒对象检测算法输出,以获得所述初始训练数据集,并且所述处理器还被配置为,通过在边界框围绕被检测对象的情况下将网格覆盖在图像上,并且基于网格的单元中边界框的存在或百分比而将值分配给网格的每个单元,从而处理黑盒对象检测算法输出。
8.根据权利要求6所述的系统,其中所述处理器还被配置为修改所述初始输入数据,以获得第二输入数据。
9.根据权利要求8所述的系统,其中所述处理器还被配置为,基于对第二输入数据执行对象检测的黑盒对象检测算法来获得第二训练数据集,以训练该替代模型,以确保基于使用第二输入数据确保替代模型的输出对第二训练数据集进行复制,并且重复以下过程:修改初始输入数据,以获得新的输入数据,基于对新的输入数据执行对象检测的黑盒对象检测算法获得新的训练数据,并且使用新的训练数据训练该替代模型。
10.根据权利要求6所述的系统,其中,所述传感器在车辆中。
CN202010194023.6A 2019-03-28 2020-03-19 对黑盒对象检测算法的对抗攻击 Pending CN111753868A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/367,590 US10929719B2 (en) 2019-03-28 2019-03-28 Adversarial attack on black box object detection algorithm
US16/367,590 2019-03-28

Publications (1)

Publication Number Publication Date
CN111753868A true CN111753868A (zh) 2020-10-09

Family

ID=72605946

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010194023.6A Pending CN111753868A (zh) 2019-03-28 2020-03-19 对黑盒对象检测算法的对抗攻击

Country Status (3)

Country Link
US (1) US10929719B2 (zh)
CN (1) CN111753868A (zh)
DE (1) DE102020103769A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11893111B2 (en) * 2019-11-26 2024-02-06 Harman International Industries, Incorporated Defending machine learning systems from adversarial attacks
CN112200243B (zh) * 2020-10-09 2022-04-26 电子科技大学 一种基于低问询图像数据的黑盒对抗样本生成方法
CN112333402B (zh) * 2020-10-20 2021-10-22 浙江大学 一种基于声波的图像对抗样本生成方法及系统
CN113327297B (zh) * 2021-06-30 2022-06-17 湖南科技大学 基于深度学习的深海海底障碍物测量系统与识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160070988A1 (en) * 2014-09-05 2016-03-10 Apical Ltd Method of image analysis
US20180137389A1 (en) * 2016-11-16 2018-05-17 Facebook, Inc. Deep Multi-Scale Video Prediction
US20190005386A1 (en) * 2017-07-01 2019-01-03 Intel Corporation Techniques for training deep neural networks
US20190057262A1 (en) * 2017-08-17 2019-02-21 Harman International Industries, Incorporated Driver assistance system and method for object detection and notification
CN109376556A (zh) * 2018-12-17 2019-02-22 华中科技大学 一种针对以卷积神经网络为基础的eeg脑机接口的攻击方法
CN109492582A (zh) * 2018-11-09 2019-03-19 杭州安恒信息技术股份有限公司 一种基于算法对抗性攻击的图像识别攻击方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10944767B2 (en) * 2018-02-01 2021-03-09 International Business Machines Corporation Identifying artificial artifacts in input data to detect adversarial attacks
US20200028686A1 (en) * 2018-07-23 2020-01-23 Florida Atlantic University Board Of Trustees Systems and methods for extending the domain of biometric template protection algorithms from integer-valued feature vectors to real-valued feature vectors
US10839265B2 (en) * 2018-11-12 2020-11-17 Sap Se Platform for preventing adversarial attacks on image-based machine learning models
US10783401B1 (en) * 2020-02-23 2020-09-22 Fudan University Black-box adversarial attacks on videos

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160070988A1 (en) * 2014-09-05 2016-03-10 Apical Ltd Method of image analysis
US20180137389A1 (en) * 2016-11-16 2018-05-17 Facebook, Inc. Deep Multi-Scale Video Prediction
US20190005386A1 (en) * 2017-07-01 2019-01-03 Intel Corporation Techniques for training deep neural networks
US20190057262A1 (en) * 2017-08-17 2019-02-21 Harman International Industries, Incorporated Driver assistance system and method for object detection and notification
CN109492582A (zh) * 2018-11-09 2019-03-19 杭州安恒信息技术股份有限公司 一种基于算法对抗性攻击的图像识别攻击方法
CN109376556A (zh) * 2018-12-17 2019-02-22 华中科技大学 一种针对以卷积神经网络为基础的eeg脑机接口的攻击方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
董健等;: "让智能安全互联", 人工智能, no. 2019, pages 49 - 57 *
谭康霞等;: "基于YOLO模型的红外图像行人检测方法", 激光与红外, vol. 48, no. 11, pages 1436 - 1442 *

Also Published As

Publication number Publication date
US20200311481A1 (en) 2020-10-01
US10929719B2 (en) 2021-02-23
DE102020103769A1 (de) 2020-10-01

Similar Documents

Publication Publication Date Title
US10929719B2 (en) Adversarial attack on black box object detection algorithm
CN109478239B (zh) 检测图像中的对象的方法和对象检测系统
CN111160302A (zh) 基于自动驾驶环境的障碍物信息识别方法和装置
EP2919162A1 (en) Image processing apparatus and image processing method
CN113039556B (zh) 用于使用增广数据训练机器模型的系统和方法
CN112149491A (zh) 用于确定探测到的对象的信任值的方法
CN108182695B (zh) 目标跟踪模型训练方法及装置、电子设备和存储介质
US11971709B2 (en) Learning device, control device, learning method, and recording medium
CN111401472B (zh) 基于深度卷积神经网络的红外目标分类方法和装置
US11636684B2 (en) Behavior model of an environment sensor
Ren et al. Environment influences on uncertainty of object detection for automated driving systems
CN112036381B (zh) 视觉跟踪方法、视频监控方法及终端设备
US9128188B1 (en) Object instance identification using template textured 3-D model matching
CN112487861A (zh) 车道线识别方法、装置、计算设备及计算机存储介质
US11541885B2 (en) Location prediction for dynamic objects
Mumbelli et al. An application of Generative Adversarial Networks to improve automatic inspection in automotive manufacturing
CN112150344A (zh) 用于确定一类别的对象的置信值的方法
KR101394473B1 (ko) 이동 물체 탐지 방법 및 그 감시 시스템
CN111753626A (zh) 用于增强车辆中基于传感器的检测的注意区域识别
Liang et al. Wip: End-to-end analysis of adversarial attacks to automated lane centering systems
CN112097673B (zh) 车身部件虚拟匹配方法和系统
JP2023548749A (ja) センサデータのアノテーションのための方法およびシステム
CN112967399A (zh) 三维时序图像生成方法、装置、计算机设备和存储介质
Meyer et al. Estimating the area of applicability of remote sensing-based machine learning models with limited training data
Rodrigues et al. Fully convolutional networks for segmenting images from an embedded camera

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination