CN113554179A - 信息处理系统 - Google Patents

信息处理系统 Download PDF

Info

Publication number
CN113554179A
CN113554179A CN202110410968.1A CN202110410968A CN113554179A CN 113554179 A CN113554179 A CN 113554179A CN 202110410968 A CN202110410968 A CN 202110410968A CN 113554179 A CN113554179 A CN 113554179A
Authority
CN
China
Prior art keywords
output
data
input data
amount
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110410968.1A
Other languages
English (en)
Other versions
CN113554179B (zh
Inventor
福岛真太朗
笹井健行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of CN113554179A publication Critical patent/CN113554179A/zh
Application granted granted Critical
Publication of CN113554179B publication Critical patent/CN113554179B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种信息处理系统,其信息处理装置具备:第一判断部,其实施第二输出数据相对于第一输出数据的变化量是否在被预先设定的阈值以下的判断,其中,所述第一输出数据为,通过将第一输入数据向被预先学习过的学习完毕模型中输入从而从学习完毕模型中获得的数据,所述第二输出数据为,通过将在第一输入数据上相加被设定的摄动量的摄动而得到的第二输入数据向学习完毕模型中输入从而从学习完毕模型中获得的数据;第一输出部,其将表示通过第一判断部而被判断为变化量在阈值以下的第一输入数据和摄动量的信息输出。

Description

信息处理系统
技术领域
本公开涉及一种信息处理系统。
背景技术
在Xiang,Tran and Johnson,Reachable Set Computation and SafetyVerification for Neural Networks with ReLU Activations(arXiv2017).(非专利文献1)中,公开了一种对相对于利用神经网络而被预先学习过的学习完毕模型的输入数据的、该学习完毕模型的输出数据的范围严格地进行辨别的技术。
发明内容
发明所要解决的问题
在非专利文献1所记载的技术中,由于计算量庞大从而并不现实,因此在减少计算量的观点上存在改善的余地。此外,非专利文献1中所记载的技术并不是对通过向学习完毕模型输入数据从而获得的输出数据的可靠性进行评价的技术。
本公开是考虑到以上的情况而完成的技术,其涉及一种能够在减少计算量的同时,对通过向学习完毕模型输入数据从而获得的输出数据的可靠性进行评价的技术。
用于解决问题的方法
第一方式所涉及的信息处理系统包括信息处理装置以及控制装置,其中,所述信息处理装置具备:第一判断部,其实施第二输出数据相对于第一输出数据的变化量是否在被预先设定的阈值以下的判断,其中,所述第一输出数据为,通过将第一输入数据输入至被预先学习过的学习完毕模型中从而从所述学习完毕模型中获得的数据,所述第二输出数据为,通过将在所述第一输入数据上相加被设定的摄动量的摄动而得到的第二输入数据输入至所述学习完毕模型中从而从所述学习完毕模型中获得的数据;第一输出部,其将表示通过所述第一判断部而被判断为所述变化量在所述阈值以下的所述第一输入数据和所述摄动量的信息输出,所述控制装置具备:取得部,其取得用于输入至所述学习完毕模型中的第三输入数据;第二判断部,其实施所述第三输入数据是否被包含在以由所述第一输出部而输出的信息所表示的所述第一输入数据为基准的所述摄动量的范围内的判断;第二输出部,其将通过所述第二判断部而被判断为并未被包含在所述范围内的所述第三输入数据输出,所述第一判断部将通过所述第二输出部而被输出的第三输入数据作为所述第一输入数据来实施所述判断,所述第一输出部进一步将表示通过所述第一判断部而被判断为所述变化量在所述阈值以下的所述第三输入数据和所述摄动量的信息输出。
根据第一方式所涉及的信息处理系统,实施第二输出数据相对于第一输出数据的变化量是否在被预先设定的阈值以下的判断,其中,所述第一输出数据为,通过将第一输入数据输入至被预先学习过的学习完毕模型中从而从学习完毕模型中获得的数据,所述第二输出数据为,通过将在第一输入数据上相加被设定的摄动量的摄动而得到的第二输入数据输入至学习完毕模型中从而从学习完毕模型中获得的数据。此外,通过信息处理装置而将表示被判断为变化量在阈值以下的第一输入数据和摄动量的信息输出。此外,通过控制装置而对用于向学习完毕模型输入的第三输入数据是否被包含在以由第一输出部而输出的信息所表示的第一输入数据为基准的摄动量的范围内进行判断。此外,通过控制装置而输出被判断为未被包含在上述范围内的第三输入数据。而且,通过信息处理装置而将通过控制装置而输出的第三输入数据作为第一输入数据来实施上述判断,并且进一步输出表示被判断为变化量在阈值以下的第三输入数据和摄动量的信息。
因此,能够在减少计算量的同时,对通过向学习完毕模型输入数据从而获得的输出数据的可靠性进行评价。
第二方式所涉及的信息处理系统为,在第一方式所涉及的信息处理系统中,所述第一判断部在所述变化量超过所述阈值的情况下,反复实施对在使所述摄动量与前次的值相比而减小了的基础上再度获得的所述第二输出数据相对于所述第一输出数据的变化量是否在所述阈值以下进行判断的处理,直至所述变化量成为所述阈值以下为止。
根据第二方式所涉及的信息处理系统,由于反复实施上述判断直至变化量成为阈值以下为止,因此能够高精度地对通过向学习完毕模型输入数据从而获得的输出数据的可靠性进行评价。
第三方式所涉及的信息处理系统为,在第一或者第二方式所涉及的信息处理系统中,所述第一输出部将所述第一输入数据作为具有与所述第一输入数据相同的维度的空间的一点而进行表示,并且将以所述一点为中心的半径为所述摄动量的超球作为所述信息而输出。
根据第三方式所涉及的信息处理系统,由于能够利用超球来表现第一输入数据和摄动量,因此能够简单地对表示第一输入数据和摄动量的信息进行处理。
第四方式所涉及的信息处理系统为,在第一至第三中的任意一个方式中,信息处理装置为服务器计算机,控制装置为被搭载于车辆上的计算机,第一输入数据、第二输入数据、以及第三输入数据为图像数据。
第五方式所涉及的信息处理系统为,在第一至第四中的任意一个方式中,取得部将通过被搭载于车辆上的摄像机而拍摄到的图像数据作为第一输入数据而取得。
第六方式所涉及的信息处理系统为,在第一至第五中的任意一个方式中,第一输出部所输出的信息被用于实施自动驾驶控制。
发明的效果
根据本公开中的各种方式,能够在减少计算量的同时,对通过向学习完毕模型输入数据从而获得的输出数据的可靠性进行评价。
附图说明
图1为表示信息处理系统的结构的一个示例的框图。
图2为表示信息处理装置的硬件结构的一个示例的框图。
图3为用于对学习完毕模型进行说明的图。
图4为表示控制装置的硬件结构的一个示例的框图。
图5为表示信息处理装置以及控制装置的功能的结构的一个示例的框图。
图6为表示第一输出处理的一个示例的流程图。
图7为表示第二输出处理的一个示例的流程图。
具体实施方式
以下,参照附图,对本公开的方式示例详细地进行说明。
首先,参照图1,对本实施方式所涉及的信息处理系统10的结构进行说明。如图1所示那样,信息处理系统10包括信息处理装置12以及控制装置14。信息处理装置12在测试阶段中被使用。作为信息处理装置12的示例,可以列举出服务器计算机等。控制装置14被设置于车辆上。此外,控制装置14在运用阶段中被使用。作为控制装置14的示例,可以列举出ECU(Electronic Control Unit:电子控制单元)等车载计算机。
接下来,参照图2,对本实施方式所涉及的信息处理装置12的硬件结构进行说明。如图2所示那样,信息处理装置12包括,CPU(Central Processing Unit:中央处理单元)20、作为临时存储区域的存储器21、以及非易失性的存储部22。此外,信息处理装置12包括,液晶显示器等显示部23、键盘和鼠标等输入部24、以及被连接到网络上的网络I/F(InterFace:接口)25。CPU20、存储器21、存储部22、显示部23、输入部24以及网络I/F25被连接到总线26上。
存储部22通过HDD(Hard Disk Drive:硬盘驱动器)、SSD(Solid State Drive:固态硬盘)、或者闪存等来实现。在作为存储介质的存储部22中存储有信息处理程序30。CPU20通过从存储部22读取信息处理程序30并展开到存储器21中,从而执行展开后的信息处理程序30。
此外,在存储部22中存储有学习完毕模型32以及范围数据34。学习完毕模型32为通过机械学习而被预先学习过的模型,并且被用于对被照出在作为输入数据的图像上的物体进行确定。作为一个示例,如图3所示那样,本实施方式所涉及的学习完毕模型32为,具有一个输入层、多个中间层、以及一个输出层的深度神经网络模型。学习完毕模型32中被输入有物体的图像,并且以与该输入对应的方式而输入被照出在该图像上的物体的确定结果和该确定结果的概率。作为物体的示例,可以列举出道路标识、交通信号灯、车辆以及人等。另外,学习完毕模型32并不被限定于深度神经网络模型。此外,对于范围数据34的详细内容将在下文中进行说明。
接下来,参照图4,对本实施方式所涉及的控制装置14的硬件结构进行说明。如图4所示那样,控制装置14包括CPU40、作为临时存储区域的存储器41、以及非易失性的存储部42。此外,控制装置14包括被连接到网络上的网络I/F43、以及输入输出I/F44。在输入输出I/F44上连接有车载摄像机46。CPU40、存储器41、存储部42、网络I/F43、以及输入输出I/F44被连接到总线45上。
存储部42通过HDD、SSD、或者闪存等来实现。在作为存储介质的存储部42中存储有控制程序50。CPU40在从存储部42读取控制程序50之后展开到存储器41中,并且执行展开后的控制程序50。此外,与存储部22同样地,在存储部42中存储有学习完毕模型32以及范围数据34。
车载摄像机46被搭载于车辆的车厢内,并且向控制装置14输出拍摄车辆的前方而获得的图像。
接下来,参照图5,对本实施方式所涉及的信息处理装置12以及控制装置14的功能的结构进行说明。如图5所示那样,信息处理装置12包括第一取得部60、导出部62、第一判断部64以及第一输出部66。信息处理装置12的CPU20通过执行信息处理程序30,从而作为第一取得部60、导出部62、第一判断部64以及第一输出部66而发挥功能。控制装置14包括第二取得部70、第二判断部72以及第二输出部74。控制装置14的CPU40通过执行控制程序50,从而作为第二取得部70、第二判断部72以及第二输出部74而发挥功能。
第一取得部60取得测试数据y_t。本实施方式所涉及的测试数据y_t为,照出有通过车载摄像机等的拍摄装置而被拍摄到的物体的图像数据。测试数据y_t相当于公开的技术所涉及的第一输入数据。
导出部62将相加到测试数据y_t上的摄动的摄动量ε导出。具体而言,导出部62利用以下的参考文献1中所记载的方法,来将带来超过后述的阈值TH的变化量的变化的对于测试数据y_t的摄动中的、极小的(例如,最小的)量作为摄动量ε而导出。在此所说的摄动的示例,可以列举出在规定了变化量的上限值的基础上使图像的数像素的值发生变化,或者在规定了像素值的平均值的绝对值或者分散值的上限值的基础上对于图像而赋予白噪声的情况等。另外,该上限值对应于摄动量ε的情况较多。
参考文献1:Szegedy,Zaremba,Sutskever,Bruna,Erhan,Goodfellow andFergus,Intriguing properties of neural networks,(ICLR2013).
第一判断部64通过向学习完毕模型32输入测试数据y_t,从而从学习完毕模型32中获得第一输出数据。此外,第一判断部64通过向学习完毕模型32输入把摄动量ε的摄动相加到测试数据y_t上而得到的测试数据y_tε,从而从学习完毕模型32中获得第二输出数据。测试数据y_tε相当于公开的技术所涉及的第二输入数据。
第一判断部64将第二输出数据相对于第一输出数据的变化量C导出。在本实施方式中,对作为变化量C而适用了作为第一输出数据而从学习完毕模型32中输出的概率、和作为第二输出数据而从学习完毕模型32中输出的概率的差的绝对值的示例进行说明。第一判断部64对所导出的变化量C是否在被预先设定的阈值TH以下进行判断。第一判断部64在变化量C超过阈值TH的情况下,反复实施对在使摄动量ε与前次的值相比而减小的基础上再度获得的第二输出数据相对于第一输出数据的变化量C是否在阈值TH以下进行判断的处理,直至变化量C成为阈值TH以下为止。关于使这种情况下的摄动量ε减小至何种程度只需预先设定即可,例如,只需与前次的值相比而减小被预先设定的比例(例如,1%)即可。
第一输出部66将表示通过第一判断部64而被判断为变化量C在阈值TH以下的测试数据y_t和摄动量ε的信息作为范围数据34而输出(保存)至存储部22。在本实施方式中,第一输出部66将测试数据y_t作为具有与测试数据y_t相同维度的空间的一点来进行表示,并且将以该一点为中心的半径为摄动量ε的超球作为范围数据34而输出至存储部22。例如,在测试数据y_t为单色图像(即,各像素值为0或1的2值的图像)、且分辨率为10像素×10像素的图像的情况下,该测试数据y_t能够作为2×10×10维的空间的一点来进行表示。可以说,该超球表示即使在相加上摄动量ε之后学习完毕模型32的输出的变化量也较小的图像。
信息处理装置12对于多个不同的测试数据y_t中的每一个实施以上的处理。因此,范围数据34成为,对于多个不同的测试数据y_t中的每一个而求得的多个超球的并集。信息处理装置12通过对于多个不同的测试数据y_t中的每一个以被预先设定的并列数来并列地实施以上的处理,从而能够缩短计算时间。作为这种情况下的并列数,例如可以适用CPU20所具有的核数。
通过以上的处理而被存储于存储部22中的范围数据34从信息处理装置12被发送至控制装置14,从而也被存储于控制装置14的存储部42中。另外,第一输出部66还可以将范围数据34经由网络I/F25而输出(发送)至控制装置14。
第二取得部70经由输入输出I/F44而取得通过车载摄像机46而被拍摄到的图像数据。该图像数据例如在搭载有控制装置14的车辆的点火开关被设置为开启状态的期间内,按照被预先设定的帧率通过车载摄像机46而被拍摄。在下文中,将该图像数据称为“实拍数据y_h”。实拍数据y_h相当于用于向公开的技术所涉及的学习完毕模型32输入的第三输入数据。此外,第二取得部70相当于公开的技术所涉及的取得部。在本实施方式中设定为,测试数据y_t和实拍数据y_h的维数(即,各像素的位数以及像素数)相同。但是,在测试数据y_t和实拍数据y_h的维数不同的情况下,只需对于测试数据y_t和实拍数据y_h中的至少一方实施图像处理以使之成为相同的维数即可。
第二判断部72对实拍数据y_h是否被包含在以由第一输出部66而输出的信息所表示的测试数据y_t为基准的摄动量ε的范围R内进行判断。具体而言,第二判断部72在将实拍数据y_h作为具有与实拍数据y_h相同的维度的空间的一点来进行表示的情况下,对是否被包含在范围数据34所表示的多个超球的并集内进行判断。
在通过第二判断部72而被判断为实拍数据y_h被包含在范围R内的情况下,第二输出部74向学习完毕模型32输入该实拍数据y_h。对应于该输入,从学习完毕模型32输出被包含在实拍数据y_h中的物体的确定结果和该确定结果的概率。来自该学习完毕模型32的输出例如被使用在车辆的自动驾驶控制中。
另一方面,在通过第二判断部72而被判断为实拍数据y_h并未被包含在范围R内的情况下,第二输出部74将该实拍数据y_h经由网络I/F43而输出(发送)至信息处理装置12。信息处理装置12将如上所述那样从控制装置14被发送的实拍数据y_h作为测试数据y_t来进行处理。即,第一判断部64将通过第二输出部74而被输出的实拍数据y_h作为测试数据y_t来实施上述的判断。而且,第一输出部66将表示通过第一判断部64而被判断为变化量C在阈值TH以下的实拍数据y_h和摄动量ε的信息,作为范围数据34而输出至存储部22。由此,并未被包含在范围R内的实拍数据y_h将从控制装置14被反馈至信息处理装置12,并基于被反馈的实拍数据y_h而使范围数据34被更新。因此,能够对通过向学习完毕模型32输入数据而获得的输出数据的可靠性进行评价。
第二输出部74还可以将未被包含在范围R内的实拍数据y_h输出(保存)至存储部42中。在该情况下,第二输出部74在被预先设定的时刻将被存储于存储部22中的实拍数据y_h输出至信息处理装置12。作为该被预先设定的时刻,例如可以列举出定期性的时刻、或者被存储于存储部42中的实拍数据y_h的数超过了固定数的时刻等。此外,在通过第二判断部72而被判断为实拍数据y_h并未被包含在范围R内的情况下,第二输出部74还可以通过语音以及向显示器的显示中的至少一方来报知警告。
接下来,参照图6,对本实施方式所涉及的信息处理装置12的作用进行说明。信息处理装置12的CPU20通过执行信息处理程序30,从而执行图6所示的第一输出处理。第一输出处理例如在由用户经由输入部24而输入了执行指示的情况下被执行。此外,第一输出处理对于多个测试数据y_t中的每一个而被并列地执行。
在图6的步骤S10中,第一取得部60取得测试数据y_t。在步骤S12中,导出部62如上文所述那样而将相加到在步骤S10中所取得的测试数据y_t上的摄动的摄动量ε导出。
在步骤S14中,第一判断部64通过将在步骤S10中所取得的测试数据y_t输入至学习完毕模型32中,从而从学习完毕模型32中获得第一输出数据。此外,第一判断部64通过将在步骤S10中所取得的测试数据y_t相加上摄动量ε的摄动而得到的测试数据y_tε输入至学习完毕模型32中,从而从学习完毕模型32中获得第二输出数据。关于该摄动量ε,在初次执行步骤S14的情况下,是在步骤S12中被导出的摄动量ε,在经由后述的步骤S18而将步骤S14执行了第二次的情况下,是在步骤S18中被减小后的摄动量ε。而且,如上文所述,第一判断部64将第二输出数据相对于第一输出数据的变化量C导出。
在步骤S16中,第一判断部64对所导出的变化量C是否在被预先设定的阈值TH以下进行判断。在该判断成为否定判断的情况下,处理转移至步骤S18。在步骤S18中,第一判断部64如上文所述那样使摄动量ε与前次的步骤S14中的值相比而减小。当步骤S18的处理结束时,处理返回至步骤S14。
另一方面,在步骤S16的判断成为肯定判断的情况下,处理转移至步骤S20。在步骤S20中,第一输出部66如上文所述那样将表示在步骤S16中被判断为变化量C在阈值TH以下的测试数据y_t和摄动量ε的信息作为范围数据34而输出至存储部22中。当步骤S20的处理结束时,第一输出处理结束。
接下来,参照图7,对本实施方式所涉及的控制装置14的作用进行说明。控制装置14的CPU40通过执行控制程序50,从而执行如图7所示的第二输出处理。第二输出处理例如在每当通过车载摄像机46而被拍摄到的图像数据(实拍数据y_h)被输入至控制装置14中时被执行。
在图7的步骤S30中,第二取得部70经由输入输出I/F44而取得通过车载摄像机46而被拍摄到的实拍数据y_h。在步骤S32中,如上文所述那样,第二判断部72对在步骤S30中所取得的实拍数据y_h是否被包含在以在步骤S20中所输出的信息所表示的测试数据y_t为基准的摄动量ε的范围R内进行判断。在该判断成为肯定判断的情况下,处理转移至步骤S34,在该判断成为否定判断的情况下,处理转移至步骤S36。
在步骤S34中,第二输出部74将在步骤S30中所取得的实拍数据y_h输入至学习完毕模型32中。与该输入相对应地,从学习完毕模型32中输出被包含在实拍数据y_h中的物体的确定结果和该确定结果的概率。来自该学习完毕模型32的输出例如被使用于车辆的自动驾驶控制中。当步骤S34的处理结束时,第二输出处理结束。
在步骤S36中,第二输出部74如上文所述那样将在步骤S30中所取得的实拍数据y_h经由网络I/F43而输出至信息处理装置12。当步骤S36的处理结束时,第二输出处理结束。
如以上所说明的那样,根据本实施方式,能够在减少计算量的同时,对通过向学习完毕模型输入数据而获得的输出数据的可靠性进行评价。
另外,在上述实施方式中,还可以将导出部62以及第一判断部64汇总为一个功能部。在此情况下,该功能部例如只需利用以下的参考文献2中所记载的方法来导出变化量C成为阈值TH以下的最大的摄动量ε即可。
参考文献2:Wong and Kolter,Provable defenses against adversarialexamples via the convex outer adversarial polytope,(ICML2018).
此外,虽然由上述实施方式中的CPU20以及CPU40而实施的处理作为通过执行程序来实施的软件处理而进行了说明,但是也可以设定为,通过ASIC(Application SpecificIntegrated Circuit:特种集成电路应用)以及FPGA(Field-Programmable Gate Array:现场可编程门阵列)等的硬件来实施的处理。此外,通过CPU20以及CPU40而实施的处理还可以设定为,通过将软件以及硬件的双方进行组合而被实施的处理。此外,被存储于存储部22中的信息处理程序30以及被存储于存储部42中的控制程序50也可以存储于各种存储介质中而进行流通。
此外,本公开并不限定于上述的方式示例,显然除了上述的方式示例之外,也可以在不脱离其主旨的范围内通过各种变形来实施。

Claims (6)

1.一种信息处理系统,其包括信息处理装置以及控制装置,其中,
所述信息处理装置具备:
第一判断部,其实施第二输出数据相对于第一输出数据的变化量是否在被预先设定的阈值以下的判断,其中,所述第一输出数据为,通过将第一输入数据向被预先学习过的学习完毕模型中输入从而从所述学习完毕模型中获得的数据,所述第二输出数据为,通过将在所述第一输入数据上相加被设定的摄动量的摄动而得到的第二输入数据向所述学习完毕模型中输入从而从所述学习完毕模型中获得的数据;
第一输出部,其将表示通过所述第一判断部而被判断为所述变化量在所述阈值以下的所述第一输入数据和所述摄动量的信息输出,
所述控制装置具备:
取得部,其取得用于向所述学习完毕模型中输入的第三输入数据;
第二判断部,其实施所述第三输入数据是否被包含在以由所述第一输出部而输出的信息所表示的所述第一输入数据为基准的所述摄动量的范围内的判断;
第二输出部,其将通过所述第二判断部而被判断为并未被包含在所述范围内的所述第三输入数据输出,
所述第一判断部将由所述第二输出部所输出的第三输入数据作为所述第一输入数据来实施所述判断,
所述第一输出部进一步将表示通过所述第一判断部而被判断为所述变化量在所述阈值以下的所述第三输入数据和所述摄动量的信息输出。
2.如权利要求1所述的信息处理系统,其中,
所述第一判断部在所述变化量超过所述阈值的情况下,反复实施对在使所述摄动量与前次的值相比而减小了的基础上再度获得的所述第二输出数据相对于所述第一输出数据的变化量是否在所述阈值以下进行判断的处理,直至所述变化量成为所述阈值以下为止。
3.如权利要求1或2所述的信息处理系统,其中,
所述第一输出部将所述第一输入数据作为具有与所述第一输入数据相同的维度的空间的一点来进行表示,并且将以所述一点为中心的半径为所述摄动量的超球作为所述信息而输出。
4.如权利要求1至3中的任意一项所述的信息处理系统,其中,
所述信息处理装置为服务器计算机,所述控制装置为被搭载于车辆上的计算机,所述第一输入数据、所述第二输入数据、以及所述第三输入数据为图像数据。
5.如权利要求1至4中的任意一项所述的信息处理系统,其中,
所述取得部将由被搭载于所述车辆上的摄像机所拍摄到的图像数据作为所述第一输入数据而取得。
6.如权利要求1至5中的任意一项所述的信息处理系统,其中,
所述第一输出部所输出的所述信息被用于实施自动驾驶控制。
CN202110410968.1A 2020-04-23 2021-04-16 信息处理系统 Active CN113554179B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-076792 2020-04-23
JP2020076792A JP7279685B2 (ja) 2020-04-23 2020-04-23 情報処理システム

Publications (2)

Publication Number Publication Date
CN113554179A true CN113554179A (zh) 2021-10-26
CN113554179B CN113554179B (zh) 2024-02-09

Family

ID=78130119

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110410968.1A Active CN113554179B (zh) 2020-04-23 2021-04-16 信息处理系统

Country Status (4)

Country Link
US (1) US11810338B2 (zh)
JP (1) JP7279685B2 (zh)
CN (1) CN113554179B (zh)
DE (1) DE102021109276A1 (zh)

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05128261A (ja) * 1991-10-31 1993-05-25 Mitsubishi Electric Corp 動画像動き推定器と伝送装置
JPH06274636A (ja) * 1993-01-19 1994-09-30 Japan Technical Software:Kk 識別システムおよびその方法並びに立体識別システム
JPH08305855A (ja) * 1995-05-01 1996-11-22 Nippon Telegr & Teleph Corp <Ntt> 画像のパターン認識方法及び装置
CN102393957A (zh) * 2010-07-05 2012-03-28 索尼公司 成像设备、成像方法、图像处理设备和图像处理方法
JP2013196295A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 生体情報処理装置
US20140112543A1 (en) * 2012-10-18 2014-04-24 Fujitsu Limited Image processing device and image processing method
JP2014112790A (ja) * 2012-12-05 2014-06-19 Samsung R&D Institute Japan Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2014142241A (ja) * 2013-01-23 2014-08-07 Denso Corp 3次元位置推定装置、車両制御装置、および3次元位置推定方法
US20160127616A1 (en) * 2014-10-31 2016-05-05 Intel Corporation Global matching of multiple images
JP2017049996A (ja) * 2015-09-02 2017-03-09 富士通株式会社 画像認識に用いられるニューラルネットワークの訓練方法及び訓練装置
US20170116461A1 (en) * 2015-10-27 2017-04-27 Fujitsu Ten Limited Image processing device and image processing method
US20180107773A1 (en) * 2016-10-19 2018-04-19 Fujitsu Limited Simulation method and information processing apparatus
US20180253866A1 (en) * 2017-03-03 2018-09-06 General Electric Company Image analysis neural network systems
CN108968811A (zh) * 2018-06-20 2018-12-11 四川斐讯信息技术有限公司 一种扫地机器人的物体识别方法及系统
JP2019087229A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2019101728A (ja) * 2017-12-01 2019-06-24 株式会社デンソー 情報抽出装置
JP2019207561A (ja) * 2018-05-29 2019-12-05 日鉄ソリューションズ株式会社 情報処理装置、情報処理方法及びプログラム
CN110889804A (zh) * 2018-09-07 2020-03-17 松下电器(美国)知识产权公司 信息处理方法、信息处理装置及程序记录介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9460624B2 (en) 2014-05-06 2016-10-04 Toyota Motor Engineering & Manufacturing North America, Inc. Method and apparatus for determining lane identification in a roadway
US11256982B2 (en) 2014-07-18 2022-02-22 University Of Southern California Noise-enhanced convolutional neural networks
JP6493282B2 (ja) 2016-04-14 2019-04-03 トヨタ自動車株式会社 サーバー及び情報提供装置
JP6583252B2 (ja) 2016-12-27 2019-10-02 トヨタ自動車株式会社 運転支援装置
JP6638701B2 (ja) 2017-06-08 2020-01-29 トヨタ自動車株式会社 運転意識推定装置
US10957188B2 (en) 2018-04-04 2021-03-23 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for determining traffic flow using observations of surrounding vehicles
JP7087654B2 (ja) 2018-05-14 2022-06-21 トヨタ自動車株式会社 車外報知装置、及び車外報知方法
JP7110729B2 (ja) 2018-05-25 2022-08-02 トヨタ自動車株式会社 自動運転システム及び自動運転システムの制御方法
JP7035945B2 (ja) 2018-10-04 2022-03-15 トヨタ自動車株式会社 地図情報システム
JP2020091523A (ja) 2018-12-03 2020-06-11 トヨタ自動車株式会社 情報処理システム、プログラム、及び制御方法
JP7293648B2 (ja) 2018-12-21 2023-06-20 トヨタ自動車株式会社 運転支援装置、車両、運転支援システム、及び運転支援方法
JP7088000B2 (ja) 2018-12-27 2022-06-21 トヨタ自動車株式会社 交通情報処理装置
US10974732B2 (en) 2019-01-04 2021-04-13 Toyota Motor Engineering & Manufacturing North America, Inc. System, method, and computer-readable storage medium for traffic intersection navigation
JP2020154386A (ja) * 2019-03-18 2020-09-24 キオクシア株式会社 情報処理方法及び情報処理装置
WO2021079478A1 (ja) * 2019-10-24 2021-04-29 富士通株式会社 劣化検出方法、劣化検出プログラムおよび情報処理装置
KR102295809B1 (ko) * 2019-10-25 2021-09-01 주식회사 멀티플아이 이동체의 전방향에 대한 거리 취득 장치 및 방법
US11250569B2 (en) * 2019-11-04 2022-02-15 GE Precision Healthcare LLC Systems and methods for functional imaging follow-up evaluation using deep neural network
EP3896613B1 (en) * 2020-04-14 2024-06-05 Robert Bosch GmbH Device and method for training a classifier and assessing the robustness of a classifier

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05128261A (ja) * 1991-10-31 1993-05-25 Mitsubishi Electric Corp 動画像動き推定器と伝送装置
JPH06274636A (ja) * 1993-01-19 1994-09-30 Japan Technical Software:Kk 識別システムおよびその方法並びに立体識別システム
JPH08305855A (ja) * 1995-05-01 1996-11-22 Nippon Telegr & Teleph Corp <Ntt> 画像のパターン認識方法及び装置
CN102393957A (zh) * 2010-07-05 2012-03-28 索尼公司 成像设备、成像方法、图像处理设备和图像处理方法
JP2013196295A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 生体情報処理装置
US20140112543A1 (en) * 2012-10-18 2014-04-24 Fujitsu Limited Image processing device and image processing method
JP2014112790A (ja) * 2012-12-05 2014-06-19 Samsung R&D Institute Japan Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2014142241A (ja) * 2013-01-23 2014-08-07 Denso Corp 3次元位置推定装置、車両制御装置、および3次元位置推定方法
US20160127616A1 (en) * 2014-10-31 2016-05-05 Intel Corporation Global matching of multiple images
CN107077721A (zh) * 2014-10-31 2017-08-18 英特尔公司 多个图像的全局匹配
JP2017049996A (ja) * 2015-09-02 2017-03-09 富士通株式会社 画像認識に用いられるニューラルネットワークの訓練方法及び訓練装置
US20170116461A1 (en) * 2015-10-27 2017-04-27 Fujitsu Ten Limited Image processing device and image processing method
US20180107773A1 (en) * 2016-10-19 2018-04-19 Fujitsu Limited Simulation method and information processing apparatus
US20180253866A1 (en) * 2017-03-03 2018-09-06 General Electric Company Image analysis neural network systems
JP2019087229A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2019101728A (ja) * 2017-12-01 2019-06-24 株式会社デンソー 情報抽出装置
JP2019207561A (ja) * 2018-05-29 2019-12-05 日鉄ソリューションズ株式会社 情報処理装置、情報処理方法及びプログラム
CN108968811A (zh) * 2018-06-20 2018-12-11 四川斐讯信息技术有限公司 一种扫地机器人的物体识别方法及系统
CN110889804A (zh) * 2018-09-07 2020-03-17 松下电器(美国)知识产权公司 信息处理方法、信息处理装置及程序记录介质

Also Published As

Publication number Publication date
CN113554179B (zh) 2024-02-09
DE102021109276A1 (de) 2021-10-28
JP2021174199A (ja) 2021-11-01
JP7279685B2 (ja) 2023-05-23
US20210331693A1 (en) 2021-10-28
US11810338B2 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
CN107697070B (zh) 驾驶行为预测方法和装置、无人车
US11164051B2 (en) Image and LiDAR segmentation for LiDAR-camera calibration
US20180285689A1 (en) Rgb-d scene labeling with multimodal recurrent neural networks
US20230005169A1 (en) Lidar point selection using image segmentation
CN104915632A (zh) 事件检测装置以及事件检测方法
CN113468967A (zh) 基于注意力机制的车道线检测方法、装置、设备及介质
CN113095346A (zh) 数据标注的方法以及数据标注的装置
CN112307978B (zh) 目标检测方法、装置、电子设备及可读存储介质
CN114549369B (zh) 数据修复方法、装置、计算机及可读存储介质
CN109367543B (zh) 驾驶设备决策的预测方法和装置
CN110991385A (zh) 一种识别船只行驶轨迹的方法、装置及电子设备
US11120308B2 (en) Vehicle damage detection method based on image analysis, electronic device and storage medium
CN111008972A (zh) 用于图像数据的语义分割的方法和设备
CN113516251B (zh) 一种机器学习系统及模型训练方法
US20220261641A1 (en) Conversion device, conversion method, program, and information recording medium
US11568325B2 (en) Learning apparatus, estimation apparatus, learning method, and program
CN115776610B (zh) 用于货运车辆货物监控的摄像头拍摄控制方法和装置
CN113554179A (zh) 信息处理系统
JP7207227B2 (ja) 運転行動評価装置、運転行動評価方法、及び運転行動評価プログラム
CN116664829A (zh) 一种rgb-t语义分割方法、系统、装置及存储介质
US20210182572A1 (en) Drive recorder and image storage system
US11590982B1 (en) Trip based characterization using micro prediction determinations
CN114359789A (zh) 视频图像的目标检测方法、装置、设备及介质
CN113807407A (zh) 目标检测模型训练方法、模型性能检测方法及装置
KR20220130498A (ko) 딥뉴럴 네트워크 기반 이미지 아웃페인팅 방법 및 그 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant