CN116802651A - 信息处理装置、选择输出方法和选择输出程序 - Google Patents

信息处理装置、选择输出方法和选择输出程序 Download PDF

Info

Publication number
CN116802651A
CN116802651A CN202180092367.9A CN202180092367A CN116802651A CN 116802651 A CN116802651 A CN 116802651A CN 202180092367 A CN202180092367 A CN 202180092367A CN 116802651 A CN116802651 A CN 116802651A
Authority
CN
China
Prior art keywords
learning data
object detection
processing apparatus
information processing
unlabeled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180092367.9A
Other languages
English (en)
Inventor
曲佳
清水彰一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN116802651A publication Critical patent/CN116802651A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/091Active learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

信息处理装置(100)具有:取得部(120),其取得分别利用不同方法进行物体检测的已学习模型(200a、200b)和作为包含物体的多个图像的多个无标签学习数据;物体检测部(140),其分别针对多个无标签学习数据,使用已学习模型(200a、200b)进行物体检测;计算部(150),其根据多个物体检测结果计算表示多个无标签学习数据的价值的多个信息量得分;以及选择输出部(160),其根据多个信息量得分,从多个无标签学习数据中选择预先设定的数量的无标签学习数据,输出选择出的无标签学习数据。

Description

信息处理装置、选择输出方法和选择输出程序
技术领域
本发明涉及信息处理装置、选择输出方法和选择输出程序。
背景技术
一般而言,为了在使用了已学习模型的装置中实现良好的性能,装置使用大量的训练数据(例如也称作学习数据集)进行深度学习。例如,在生成检测被输入的图像内的物体的已学习模型的情况下,在训练数据中包含图像内的检测对象物体的区域和表示该物体的类别的标签。该训练数据由标记作业者来生成。标记作业者的生成作业被称作标记。标记作业者进行标记会增大标记作业者的负担。因此,为了减轻标记作业者的负担,考虑主动学习。在主动学习中,被标记的学习效果高的图像被用作训练数据。
这里,已提出选择在主动学习中使用的数据的技术(参照专利文献1)。主动学习装置使用通过有标签学习数据进行学习而得到的识别器,计算针对无标签学习数据的识别得分。主动学习装置对无标签学习数据进行聚类,由此生成多个簇(cluster)。主动学习装置根据多个簇和识别得分,从无标签学习数据中选择在主动学习中使用的学习数据。
现有技术文献
专利文献
专利文献1:日本特开2017-167834号公报
发明内容
发明要解决的课题
在上述的技术中,使用利用某种方法使用有标签学习数据进行学习而得到的识别器和无标签学习数据来选择学习数据。这里,下面,将识别器称作已学习模型。在使用该方法进行学习的情况下,选择出的学习数据是学习效果高的学习数据。另一方面,在生成使用不同方法的已学习模型的情况下,选择出的学习数据未必可以说是学习效果高的学习数据。因此,使用上述技术的方法未必可以说是优选的。由此,如何选择学习效果高的学习数据成为问题。
本发明的目的在于,选择学习效果高的学习数据。
用于解决课题的手段
提供本发明的一个方式的信息处理装置。信息处理装置具有:取得部,其取得分别利用不同方法进行物体检测的多个已学习模型和作为包含物体的多个图像的多个无标签学习数据;物体检测部,其分别针对所述多个无标签学习数据,使用所述多个已学习模型进行物体检测;计算部,其根据多个物体检测结果计算表示所述多个无标签学习数据的价值的多个信息量得分;以及选择输出部,其根据所述多个信息量得分,从所述多个无标签学习数据中选择预先设定的数量的无标签学习数据,输出选择出的无标签学习数据。
发明效果
根据本发明,能够选择学习效果高的学习数据。
附图说明
图1是示出实施方式1的信息处理装置的功能的框图。
图2是示出实施方式1的信息处理装置具有的硬件的图。
图3的(A)、(B)是用于说明实施方式1的IoU的图。
图4是示出实施方式1的准确率(Precision)、召回率(Recall)和AP的关系的图。
图5的(A)、(B)是示出选择出的图像的输出的例子的图(其一)。
图6的(A)、(B)是示出选择出的图像的输出的例子的图(其二)。
图7是示出实施方式2的信息处理装置的功能的框图。
图8是示出实施方式2的信息处理装置执行的处理的例子的流程图。
具体实施方式
下面,参照附图对实施方式进行说明。以下的实施方式只不过是例子,能够在本发明的范围内进行各种变更。
实施方式1
图1是示出实施方式1的信息处理装置的功能的框图。信息处理装置100是执行选择输出方法的装置。信息处理装置100具有第1存储部111、第2存储部112、取得部120、学习部130a、130b、物体检测部140、计算部150和选择输出部160。
这里,对信息处理装置100具有的硬件进行说明。
图2是示出实施方式1的信息处理装置具有的硬件的图。信息处理装置100具有处理器101、易失性存储装置102和非易失性存储装置103。
处理器101对信息处理装置100整体进行控制。例如,处理器101是CPU(CentralProcessing Unit:中央处理单元)、FPGA(Field Programmable Gate Array:现场可编程门阵列)等。处理器101也可以是多处理器。此外,信息处理装置100也可以具有处理电路。处理电路也可以是单一电路或复合电路。
易失性存储装置102是信息处理装置100的主存储装置。例如,易失性存储装置102是RAM(Random Access Memory:随机存取存储器)。非易失性存储装置103是信息处理装置100的辅助存储装置。例如,非易失性存储装置103是HDD(Hard Disk Drive:硬盘驱动器)或SSD(Solid State Drive:固态驱动器)。
返回图1,对信息处理装置100的功能进行说明。
第1存储部111和第2存储部112也可以作为易失性存储装置102或非易失性存储装置103中确保的存储区域来实现。
取得部120、学习部130a、130b、物体检测部140、计算部150和选择输出部160的一部分或全部也可以通过处理电路来实现。此外,取得部120、学习部130a、130b、物体检测部140、计算部150和选择输出部160的一部分或全部也可以作为处理器101执行的程序的模块来实现。例如,处理器101执行的程序也称作选择输出程序。例如,选择输出程序记录于记录介质。
信息处理装置100生成已学习模型200a、200b。对直到生成已学习模型200a、200b为止的情况进行说明。
首先,对第1存储部111进行说明。第1存储部111也可以存储有标签学习数据。有标签学习数据包含图像、该图像内的1个以上的检测对象物体的区域、以及表示该物体的类别的标签。另外,包含该物体的区域和该标签的信息也称作标签信息。此外,例如,在该图像是包含道路的图像的情况下,该类别是四轮车、二轮车、卡车等。
取得部120取得有标签学习数据。例如,取得部120从第1存储部111取得有标签学习数据。此外,例如,取得部120从外部装置(例如云服务器)取得有标签学习数据。
学习部130a、130b使用有标签学习数据,分别利用不同方法进行物体的检测学习,由此生成已学习模型200a、200b。例如,该方法是Faster R-CNN(Regions withConvolutional Neural Networks)、YOLO(You Look Only Once)、SSD(Single ShotMultiBox Detector)等。另外,该方法也可以称作算法。
这样,通过学习部130a、130b,生成分别利用不同方法进行物体检测的已学习模型200a、200b。例如,已学习模型200a是使用Faster R-CNN进行物体检测的已学习模型。此外,例如,已学习模型200b是使用YOLO进行物体检测的已学习模型。
这里,图1示出2个学习部。学习部的数量不限于2个。而且,生成与学习部相同数量的已学习模型。由此,已学习模型的数量不限于2个。此外,已学习模型也可以称作检测器或检测器信息。
此外,生成的已学习模型200a、200b可以存储于易失性存储装置102或非易失性存储装置103,也可以存储于外部装置。
接着,对在生成已学习模型200a、200b后由信息处理装置100执行的处理进行说明。
首先,对第2存储部112进行说明。第2存储部112也可以存储多个无标签学习数据。多个无标签学习数据分别不包含标签信息。多个无标签学习数据是多个图像。多个图像分别包含物体。例如,物体是人、动物等。
取得部120取得多个无标签学习数据。例如,取得部120从第2存储部112取得多个无标签学习数据。此外,例如,取得部120从外部装置取得多个无标签学习数据。
取得部120取得已学习模型200a、200b。例如,取得部120从易失性存储装置102或非易失性存储装置103取得已学习模型200a、200b。此外,例如,取得部120从外部装置取得已学习模型200a、200b。
物体检测部140针对多个无标签学习数据,分别使用已学习模型200a、200b进行物体检测。例如,在无标签学习数据的数量为2个的情况下,物体检测部140针对多个无标签学习数据中的第1无标签学习数据,使用已学习模型200a、200b进行物体检测。换言之,物体检测部140使用该第1无标签学习数据和已学习模型200a、200b进行物体检测。此外,例如,物体检测部140针对多个无标签学习数据中的第2无标签学习数据,使用已学习模型200a、200b进行物体检测。
这样,物体检测部140针对多个无标签学习数据,分别使用已学习模型200a、200b进行物体检测。
首先,对使用1个无标签学习数据和已学习模型200a、200b进行物体检测的情况进行说明。此外,还对与该1个无标签学习数据对应的信息量得分的计算方法进行说明。
物体检测部140使用该1个无标签学习数据和已学习模型200a、200b进行物体检测。例如,物体检测部140使用该无标签学习数据和已学习模型200a进行物体检测。此外,例如,物体检测部140使用该无标签学习数据和已学习模型200b进行物体检测。由此,分别利用不同方法进行物体检测。按照每个已学习模型输出物体检测结果。物体检测结果表记为Di。另外,i是1~N的整数。此外,物体检测结果Di也称作推理标签Ri。推理标签Ri用“(c,x,y,w,h)”表达。c表示物体的类别。x和y表示物体的图像区域中心的坐标(x,y)。w表示物体的宽度。h表示物体的高度。
计算部150使用物体检测结果Di计算信息量得分。信息量得分表示无标签学习数据的价值。因此,信息量得分的值越大,则意味着作为学习数据的价值越高。换言之,信息量得分在相似性高的图像区域中的类别的结果中存在较大差异。或者,信息量得分在相同类别的结果中在图像区域中存在较大差异。
对信息量得分的计算方法进行说明。在信息量得分的计算中,使用考虑了各个物体的图像区域的相似性和各个物体的类别结果的差异的检测精度指标mAP(mean AveragePrecision:平均准确率均值)@0.5。另外,“0.5”表示后述的IoU(Intersection overUnion:交并比)的阈值。
在已学习模型为2个的情况下,信息量得分使用式(1)来计算。这里,从已学习模型200a输出的物体检测结果设为D1。从已学习模型200b输出的物体检测结果设为D2。
信息量得分N=2=1-mAP@0.5(D1,D2)…(1)
此外,mAP@0.5是物体检测中的评价方法之一,作为在进行评价的方面使用的概念,公知有IoU。在使用有标签学习数据进行了物体检测的情况下,IoU使用式(2)来表示。Rgt表示真值的区域。Rd表示检测区域。A表示区域。
示出真值的区域Rgt和检测区域Rd的具体例。
图3的(A)、(B)是用于说明实施方式1的IoU的图。图3的(A)示出真值的区域Rgt和检测区域Rd的具体例。此外,图3的(A)示出真值的区域Rgt和检测区域Rd重叠了多少。
这里,在无标签学习数据中没有标签。因此,没有真值。因此,IoU无法直接使用式(2)来表示。因此,IoU如下那样表示。将1个物体检测结果所示的区域设为真值的区域。而且,将另一个物体检测结果所示的区域设为检测区域。例如,在图3的(B)中,物体检测结果D1所示的检测区域Rgt1成为真值的区域。物体检测结果D2所示的检测区域Rd1成为检测区域。在使用图3的(B)的例子的情况下,IoU使用式(3)来表示。
使用IoU计算TP(True Positive)、FP(False Positive)和FN(False Negative)。
另外,在检测区域Rgt1相对于检测区域Rd1的IoU为阈值以上的情况下,TP表示已学习模型检测到存在于无标签学习数据的图像内的物体。换言之,检测区域Rd1和检测区域Rgt1存在于大致相同的位置,因此,表示已学习模型检测到真值。
在检测区域Rgt1相对于检测区域Rd1的IoU小于阈值的情况下,FP表示已学习模型检测到无标签学习数据的图像内不存在的物体。换言之,检测区域Rgt1存在于偏离的位置,因此,表示已学习模型进行了误检测。
在检测区域Rd1相对于检测区域Rgt1的IoU小于阈值的情况下,FN表示已学习模型未检测到存在于无标签学习数据的图像内的物体。换言之,检测区域Rgt1存在于偏离的位置,因此,表示已学习模型未检测到。
此外,使用TP和FP表示准确率(Precision)。具体而言,准确率使用式(4)来表示。另外,准确率表示预测为正的数据中的、实际为正的数据的比例。另外,准确率也称作适合率。
使用TP和FP表示召回率(Recall)。具体而言,召回率使用式(5)来表示。另外,召回率表示实际为正的数据中的、预测为正的数据的比例。另外,召回率也称作再现率。
例示准确率、召回率和AP的关系。
图4是示出实施方式1的准确率、召回率和AP的关系的图。纵轴示出准确率。横轴示出召回率。使用准确率和召回率计算AP(Average Precision:平均准确率)。即,图4的“AP”的面积被计算为AP。
例如,当在无标签学习数据的图像内存在多个物体的情况下,计算部150计算多个物体各自的TP、FP和FN。计算部150使用式(4)和式(5)计算多个物体各自的准确率和召回率。计算部150根据多个物体各自的准确率和召回率计算每个物体(即类)的AP。例如,在该多个物体为猫和狗的情况下,计算出猫的AP“0.4”和狗的AP“0.6”。计算部150将每个物体的AP的平均计算为mAP。例如,在猫的AP为“0.4”、狗的AP为“0.6”的情况下,计算部150计算mAP“0.5”。另外,当在无标签学习数据的图像内仅存在1个物体的情况下,计算1个AP。而且,1个AP成为mAP。
这样计算出mAP。计算部150使用mAP和式(1)计算信息量得分。即,计算部150通过“1-mAP”来计算信息量得分。由此,计算出信息量得分。
在已学习模型为N个(即3个以上)的情况下,信息量得分使用式(6)来计算。即,计算部150使用N个已学习模型制作2个已学习模型的多个组合,按照每个组合使用式(1)计算值,将计算出的值的合计值除以N,由此计算信息量得分。
这样,计算部150计算与该1个无标签学习数据对应的信息量得分。然后,信息处理装置100(即物体检测部140和计算部150)针对多个无标签学习数据分别也进行同样的处理。由此,信息处理装置100得到多个无标签学习数据各自的信息量得分。换言之,信息处理装置100得到与多个无标签学习数据对应的多个信息量得分。这样,信息处理装置100根据多个物体检测结果计算多个信息量得分。此外,详细地讲,信息处理装置100使用mAP和多个物体检测结果计算多个信息量得分。
选择输出部160根据多个信息量得分,从多个无标签学习数据中选择预先设定的数量的无标签学习数据。换言之,选择输出部160根据多个信息量得分,从与多个信息量得分对应的多个无标签学习数据中选择学习效果高的无标签学习数据。该文章也可以如下表达。选择输出部160从多个无标签学习数据中选择预测出针对学习的贡献的无标签学习数据。
对该选择的方法的一例进行说明。首先,信息量得分是0~1的范围的值。在信息量得分为“0”的情况下,基于已学习模型200a、200b的检测结果大致一致。因此,与“0”的信息量得分对应的无标签学习数据充当为学习数据的必要性低,因此,可认为利用价值少。另一方面,在信息量得分为“1”的情况下,基于已学习模型200a、200b的检测结果大幅不同。但是,与“1”的信息量得分对应的无标签学习数据可以说是非常难检测的特殊例。因此,可认为在学习数据少的阶段将较多的特殊例加入学习数据中无助于检测性能的提高。由此,选择输出部160从与多个信息量得分对应的多个无标签学习数据中,将与“0”和“1”的信息量得分对应的无标签学习数据排除。在排除后,选择输出部160从多个无标签学习数据中,选择上位n(n为正整数)个无标签学习数据作为学习效果高的无标签学习数据。
选择输出部160输出选择出的无标签学习数据。此外,选择输出部160也可以输出对选择出的无标签学习数据(以下为选择出的图像)进行物体检测而得到的结果即物体检测结果作为推理标签。这里,对选择出的图像的输出的一例进行说明。
图5的(A)、(B)是示出选择出的图像的输出的例子的图(其一)。图5的(A)示出选择出的图像被输出到易失性存储装置102或非易失性存储装置103的情况。例如,标记作业者使用信息处理装置100对选择出的图像进行标记。
图5的(B)示出选择出的图像和推理标签被输出到易失性存储装置102或非易失性存储装置103的情况。例如,标记作业者使用信息处理装置100和推理标签对选择出的图像进行标记。此外,通过输出推理标签,减轻了标记作业者的标记作业。
图6的(A)、(B)是示出选择出的图像的输出的例子的图(其二)。图6的(A)示出选择出的图像被输出到标记工具的情况。这样,选择出的图像被输出到标记工具,由此减轻了标记作业者的标记作业。
图6的(B)示出选择出的图像和推理标签被输出到标记工具的情况。标记作业者一边使用标记工具对推理标签进行修正,一边对选择出的图像进行标记。
这里,由选择输出部160选择出的图像是使用分别利用不同方法检测物体的已学习模型选择出的图像。因此,选择出的图像不仅适合作为利用某个方法进行学习时使用的学习数据,还适合作为利用其他方法进行学习时使用的学习数据。由此,选择出的图像可以说是学习效果高的学习数据。根据实施方式1,信息处理装置100能够选择学习效果高的学习数据。
此外,通过信息处理装置100自动地选择学习效果高的学习数据。由此,信息处理装置100能够高效地选择学习效果高的学习数据。
实施方式2
接着,对实施方式2进行说明。在实施方式2中,主要说明与实施方式1不同的事项。而且,在实施方式2中,省略与实施方式1共同的事项的说明。
图7是示出实施方式2的信息处理装置的功能的框图。与图1所示的结构相同的图7的结构标注与图1所示的标号相同的标号。
信息处理装置100对已学习模型200a、200b进行再学习。再学习的详细情况在后面说明。
接着,使用流程图对信息处理装置100执行的处理进行说明。
图8是示出实施方式2的信息处理装置执行的处理的例子的流程图。
(步骤S11)取得部120取得有标签学习数据。另外,该有标签学习数据的数据量可以是少量的。
学习部130a、130b使用有标签学习数据,分别利用不同方法进行物体的检测学习,由此生成已学习模型200a、200b。
(步骤S12)取得部120取得多个无标签学习数据。
物体检测部140使用多个无标签学习数据和已学习模型200a、200b进行物体检测。
(步骤S13)计算部150根据多个物体检测结果计算与多个无标签学习数据对应的多个信息量得分。
(步骤S14)选择输出部160根据多个信息量得分,从多个无标签学习数据中选择学习效果高的无标签学习数据。
(步骤S15)选择输出部160输出选择出的无标签学习数据(即选择出的图像)。例如,选择输出部160如图5或图6中例示的那样输出选择出的图像。
这里,标记作业者使用选择出的图像进行标记。由此,生成有标签学习数据。有标签学习数据包含选择出的图像、该图像内的1个以上的检测对象物体的区域、以及表示该物体的类别的标签。有标签学习数据也可以存储于第1存储部111。另外,标记作业也可以由外部装置来进行。
(步骤S16)取得部120取得有标签学习数据。例如,取得部120从第1存储部111取得有标签学习数据。此外,例如,取得部120从外部装置取得有标签学习数据。
(步骤S17)学习部130a、130b使用有标签学习数据对已学习模型200a、200b进行再学习。
(步骤S18)信息处理装置100判定是否满足学习的结束条件。另外,例如,该结束条件存储于非易失性存储装置103。在满足该结束条件的情况下,处理结束。在不满足该结束条件的情况下,处理进入步骤S12。
根据实施方式2,信息处理装置100反复进行有标签学习数据的追加和再学习,由此能够提高已学习模型的物体检测精度。
以上说明的各实施方式中的特征能够彼此适当组合。
标号说明
100:信息处理装置;101:处理器;102:易失性存储装置;103:非易失性存储装置;111:第1存储部;112:第2存储部;120:取得部;130a、130b:学习部;140:物体检测部;150:计算部;160:选择输出部;200a、200b:已学习模型。

Claims (6)

1.一种信息处理装置,其中,该信息处理装置具有:
取得部,其取得分别利用不同方法进行物体检测的多个已学习模型和作为包含物体的多个图像的多个无标签学习数据;
物体检测部,其分别针对所述多个无标签学习数据,使用所述多个已学习模型进行物体检测;
计算部,其根据多个物体检测结果计算表示所述多个无标签学习数据的价值的多个信息量得分;以及
选择输出部,其根据所述多个信息量得分,从所述多个无标签学习数据中选择预先设定的数量的无标签学习数据,输出选择出的无标签学习数据。
2.根据权利要求1所述的信息处理装置,其中,
所述选择输出部输出对选择出的无标签学习数据进行物体检测而得到的结果即物体检测结果作为推理标签。
3.根据权利要求1或2所述的信息处理装置,其中,
所述计算部使用平均准确率均值和所述多个物体检测结果计算所述多个信息量得分。
4.根据权利要求1~3中的任意一项所述的信息处理装置,其中,
所述信息处理装置还具有多个学习部,
所述取得部取得包含选择出的无标签学习数据的有标签学习数据,
所述多个学习部使用所述有标签学习数据对所述多个已学习模型进行再学习。
5.一种选择输出方法,其中,
信息处理装置取得分别利用不同方法进行物体检测的多个已学习模型和作为包含物体的多个图像的多个无标签学习数据,
所述信息处理装置分别针对所述多个无标签学习数据,使用所述多个已学习模型进行物体检测,
所述信息处理装置根据多个物体检测结果计算表示所述多个无标签学习数据的价值的多个信息量得分,
所述信息处理装置根据所述多个信息量得分,从所述多个无标签学习数据中选择预先设定的数量的无标签学习数据,
所述信息处理装置输出选择出的无标签学习数据。
6.一种选择输出程序,其中,该选择输出程序使信息处理装置执行以下处理:
取得分别利用不同方法进行物体检测的多个已学习模型和作为包含物体的多个图像的多个无标签学习数据,
分别针对所述多个无标签学习数据,使用所述多个已学习模型进行物体检测,
根据多个物体检测结果计算表示所述多个无标签学习数据的价值的多个信息量得分,
根据所述多个信息量得分,从所述多个无标签学习数据中选择预先设定的数量的无标签学习数据,
输出选择出的无标签学习数据。
CN202180092367.9A 2021-02-05 2021-02-05 信息处理装置、选择输出方法和选择输出程序 Pending CN116802651A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/004388 WO2022168274A1 (ja) 2021-02-05 2021-02-05 情報処理装置、選択出力方法、及び選択出力プログラム

Publications (1)

Publication Number Publication Date
CN116802651A true CN116802651A (zh) 2023-09-22

Family

ID=82742068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180092367.9A Pending CN116802651A (zh) 2021-02-05 2021-02-05 信息处理装置、选择输出方法和选择输出程序

Country Status (5)

Country Link
US (1) US20240119723A1 (zh)
JP (1) JPWO2022168274A1 (zh)
CN (1) CN116802651A (zh)
DE (1) DE112021006984T5 (zh)
WO (1) WO2022168274A1 (zh)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5167596B2 (ja) * 2006-05-10 2013-03-21 日本電気株式会社 データセット選択装置および実験計画システム
JP6364037B2 (ja) 2016-03-16 2018-07-25 セコム株式会社 学習データ選択装置
US10769500B2 (en) * 2017-08-31 2020-09-08 Mitsubishi Electric Research Laboratories, Inc. Localization-aware active learning for object detection

Also Published As

Publication number Publication date
US20240119723A1 (en) 2024-04-11
WO2022168274A1 (ja) 2022-08-11
DE112021006984T5 (de) 2023-11-16
JPWO2022168274A1 (zh) 2022-08-11

Similar Documents

Publication Publication Date Title
US10474713B1 (en) Learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same
Garcia-Fidalgo et al. Hierarchical place recognition for topological mapping
US10262214B1 (en) Learning method, learning device for detecting lane by using CNN and testing method, testing device using the same
WO2017059576A1 (en) Apparatus and method for pedestrian detection
US10430691B1 (en) Learning method and learning device for object detector based on CNN, adaptable to customers' requirements such as key performance index, using target object merging network and target region estimating network, and testing method and testing device using the same to be used for multi-camera or surround view monitoring
EP3620958B1 (en) Learning method, learning device for detecting lane through lane model and testing method, testing device using the same
EP3686791B1 (en) Learning method and learning device for object detector based on cnn to be used for multi-camera or surround view monitoring using image concatenation and target object merging network, and testing method and testing device using the same
CN113129335B (zh) 一种基于孪生网络的视觉跟踪算法及多模板更新策略
CN112613617A (zh) 基于回归模型的不确定性估计方法和装置
CN110909588B (zh) 基于cnn的用于车道线检测的方法和装置
CN114742112A (zh) 一种对象关联方法、装置及电子设备
JP2007066019A (ja) 画像検索方法及び装置
CN112560856A (zh) 车牌检测识别方法、装置、设备及存储介质
CN116802651A (zh) 信息处理装置、选择输出方法和选择输出程序
US9208402B2 (en) Face matching for mobile devices
CN111414804B (zh) 识别框确定方法、装置、计算机设备、车辆和存储介质
CN110942073A (zh) 一种集装箱拖车编号识别方法、装置和计算机设备
US10373004B1 (en) Method and device for detecting lane elements to plan the drive path of autonomous vehicle by using a horizontal filter mask, wherein the lane elements are unit regions including pixels of lanes in an input image
Fujita et al. Fine-tuned Surface Object Detection Applying Pre-trained Mask R-CNN Models
CN111984812A (zh) 一种特征提取模型生成方法、图像检索方法、装置及设备
Xiong et al. Hinge-Wasserstein: Estimating Multimodal Aleatoric Uncertainty in Regression Tasks
CN117218613B (zh) 一种车辆抓拍识别系统及方法
EP4375949A1 (en) Object detection program, device, and machine learning model generation method
Chang et al. Mining Concise Datasets for Testing Satellite-Data-Based Land-Cover Classifiers Meant for Large Geographic Areas
Heim A Brief Introduction to the Evaluation of Learned Models for Aerial Object Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination