JP7355111B2 - 学習データ生成装置、学習データ生成方法、及び、プログラム - Google Patents

学習データ生成装置、学習データ生成方法、及び、プログラム Download PDF

Info

Publication number
JP7355111B2
JP7355111B2 JP2021550982A JP2021550982A JP7355111B2 JP 7355111 B2 JP7355111 B2 JP 7355111B2 JP 2021550982 A JP2021550982 A JP 2021550982A JP 2021550982 A JP2021550982 A JP 2021550982A JP 7355111 B2 JP7355111 B2 JP 7355111B2
Authority
JP
Japan
Prior art keywords
image
rectangle
identification model
learning data
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021550982A
Other languages
English (en)
Other versions
JPWO2021070258A1 (ja
JPWO2021070258A5 (ja
Inventor
君 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021070258A1 publication Critical patent/JPWO2021070258A1/ja
Publication of JPWO2021070258A5 publication Critical patent/JPWO2021070258A5/ja
Application granted granted Critical
Publication of JP7355111B2 publication Critical patent/JP7355111B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体検出などに用いられる正解データを生成する技術に関する。
近年、深層学習の発達により、物体認識や物体検出の精度が飛躍的に改善している。深層学習を用いたモデルを学習するためには、十分な学習データが不可欠である。また、物体認識や物体検出の精度を確保するためには、学習データとして様々な環境における画像が必要となる。従来は、様々な環境で対象物を含む画像を撮影し、個々の画像に対して人手により正解付けの作業を行っていたため、学習データを用意するために大量な時間と労力を要していた。このような観点から、学習データを効率的に作成することが要求されている。特許文献1は、環境の異なる画像を収集し、これを教師データとして識別器の学習を行う手法を開示している。
特開2014-85795号公報
しかし、特許文献1の手法においても、まず大量の画像の撮影を行う必要がある。
本発明の1つの目的は、画像の撮影を行う必要なく、物体検出装置などの学習に使用可能な学習データを効率的に生成する手法を提供することにある。
上記の課題を解決するため、本発明の一つの観点では、学習データ生成装置は、
対象物を含み当該対象物のラベルが付与された対象物画像と、非対象物を含む非対象物画像とを用いて、画像に含まれる対象物を識別する識別モデルを生成する識別モデル生成手段と、
前記対象物画像を前記識別モデルに入力し、前記対象物を含むと予測される領域である注目領域を検出する注目領域検出手段と、
前記注目領域に外接する矩形を生成する矩形生成手段と、
前記対象物のラベル及び前記矩形を含む学習データを出力する学習データ出力手段と、
前記対象物画像における前記矩形をマスクしてマスク画像を生成し、前記識別モデルに再入力する画像マスク手段と、を備え
当該マスク画像が前記識別モデルにより前記対象物と認識された場合、前記注目領域検出手段は前記マスク画像から前記注目領域を検出し、前記矩形生成手段は前記マスク画像から検出された注目領域に基づいて矩形を再生成する。
本発明の他の観点では、学習データ生成方法は、
識別モデル生成手段が、対象物を含み当該対象物のラベルが付与された対象物画像と、非対象物を含む非対象物画像とを用いて、画像に含まれる対象物を識別する識別モデルを生成し、
注目領域検出手段が、前記対象物画像を前記識別モデルに入力し、前記対象物を含むと予測される領域である注目領域を検出し、
矩形生成手段が、前記注目領域に外接する矩形を生成し、
学習データ出力手段が、前記対象物のラベル及び前記矩形を含む学習データを出力し、
画像マスク手段が、前記対象物画像における前記矩形をマスクしてマスク画像を生成し、前記識別モデルに再入力し、
当該マスク画像が前記識別モデルにより前記対象物と認識された場合、前記注目領域検出手段は前記マスク画像から前記注目領域を検出し、前記矩形生成手段は前記マスク画像から検出された注目領域に基づいて矩形を再生成する。
本発明のさらに他の観点では、プログラムは、
対象物を含み当該対象物のラベルが付与された対象物画像と、非対象物を含む非対象物画像とを用いて、画像に含まれる対象物を識別する識別モデルを生成し、
前記対象物画像を前記識別モデルに入力し、前記対象物を含むと予測される領域である注目領域を検出し、
前記注目領域に外接する矩形を生成し、
前記対象物のラベル及び前記矩形を含む学習データを出力し、
前記対象物画像における前記矩形をマスクしてマスク画像を生成し、前記識別モデルに再入力し、
当該マスク画像が前記識別モデルにより前記対象物と認識された場合、前記マスク画像から前記注目領域を検出し、前記マスク画像から検出された注目領域に基づいて矩形を再生成する処理をコンピュータに実行させる。
本発明によれば、画像の撮影を行う必要なく、物体検出装置などの学習に使用可能な学習データを効率的に生成することが可能となる。
第1実施形態に係る学習データ生成装置のハードウェア構成を示す。 第1実施形態に係る学習データ生成装置の機能構成を示す。 対象物画像に対する注目領域及び矩形の例を示す。 第1実施形態による学習データ生成処理のフローチャートである。 矩形が対象物の一部にしか対応していない場合の例を示す。 矩形が複数の対象物を含む場合の例を示す。 第2実施形態に係る学習データ生成装置の機能構成を示す。 第2実施形態による学習データ生成処理のフローチャートである。 第3実施形態に係る学習データ生成装置の機能構成を示す。
以下、図面を参照して、本発明の好適な実施形態について説明する。
[概要説明]
以下に説明する実施形態では、新たな画像の撮影を行うことなく、既存の画像データに基づいて物体検出装置の学習に用いられる学習データを生成する。一般的に、物体検出装置は、画像に含まれる1又は複数の対象物の領域を検出し、その対象物のラベル及びその領域の位置を出力する。検出すべき対象物は予め決められている。例えば、「人」、「犬」、「猫」が対象物と決められている場合、物体検出装置は、画像からそれら3つの対象物を検出し、対象物毎にそのラベルと、画像における対象物の位置とを出力する。なお、一般的に、対象物の位置としては、画像においてその対象物が占める領域を示す矩形、具体的には対象物に外接する矩形を示す座標が用いられる。
物体検出装置をニューラルネットワークにより構成する場合、物体検出モデルを学習するために、学習用の画像と、その画像に含まれる対象物のラベルと、その対象物の位置を示す矩形とを含む学習データが必要となる。なお、学習データは教師データとも呼ばれる。この学習データは、通常は、まず、対象物を含む多数の画像を撮影し、次に各画像に対して人手によりラベル及び矩形を付与することにより行われるが、前述のように、この作業は非常に多くの時間と労力を必要とする。
そこで、本実施形態では、学習データを自動生成する。具体的に、本実施形態では、まず、ラベルが付与されている既存の画像を集め、その画像に対して対象物の位置を示す矩形を付与して学習データを生成する。ラベルが付与されている画像としては、ウェブサイトなどにおいて公開されている画像などを用いることができる。例えば、対象物が「猫」である場合、ウェブ上に公開されている猫の画像データをウェブ検索などにより集めることができる。こうして得た画像は、既に対象物である「猫」のラベル付けが済んだ画像と考えることができる。但し、その画像における対象物「猫」の位置を示す矩形の情報は含まれていないため、その画像に矩形を付与する処理が必要となる。そこで、本実施形態では、ラベルが付与された画像を収集し、各画像に対して対象物の位置を示す矩形を自動生成することにより、学習データを生成する。これにより、画像を撮影したり、その画像に含まれる対象物にラベル付けする手間を省くことができ、効率的に学習データを生成することが可能となる。また、ウェブ上に公開されている画像などを使用することにより、様々な環境で撮影された画像を用いて学習データを生成することができる。
[第1実施形態]
(ハードウェア構成)
図1は、第1実施形態に係る学習データ生成装置のハードウェア構成を示すブロック図である。図示のように、学習データ生成装置10は、インタフェース(I/F)12と、プロセッサ13と、メモリ14と、記録媒体15と、データベース(DB)16と、を備える。
インタフェース12は、外部装置との間でデータの入出力を行う。具体的に、インタフェース12は、学習データの基になる画像を学習データ生成装置10に入力したり、学習データ生成装置10が生成した学習データを出力する際に使用される。
プロセッサ13は、CPU(Central Processing Unit)、又はCPUとGPU(Graphics Processing Uit)などのコンピュータであり、予め用意されたプログラムを実行することにより、学習データ生成装置10の全体を制御する。具体的に、プロセッサ13は、後述する学習データ生成処理を実行する。
メモリ14は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ14は、学習データ生成装置10が使用する識別モデルを記憶する。また、メモリ14は、プロセッサ13による各種の処理の実行中に作業メモリとしても使用される。
記録媒体15は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、学習データ生成装置10に対して着脱可能に構成される。記録媒体15は、プロセッサ13が実行する各種のプログラムを記録している。学習データ生成装置10が各種の処理を実行する際には、記録媒体15に記録されているプログラムがメモリ14にロードされ、プロセッサ13により実行される。
データベース16は、学習データの生成のために使用される画像データを記憶する。なお、上記に加えて、学習データ生成装置10は、ユーザが指示や入力を行うためのキーボード、マウスなどの入力機器や表示部を備えていても良い。
(機能構成)
次に、学習データ生成装置の機能構成について説明する。図2は、第1実施形態に係る学習データ生成装置の機能構成を示すブロック図である。図示のように、学習データ生成装置10は、識別モデル生成部21と、識別モデル22と、注目領域検出部23と、矩形生成部24と、学習データ生成部25と、を備える。
識別モデル生成部21には、対象物を含む画像である対象物画像Doと、対象物以外の物体(以下、「非対象物」と呼ぶ。)を含む画像である非対象物画像Dnと、が入力される。ここで、対象物画像Doには、対象物を示すラベルが付与されている。例えば、対象物が「猫」である場合、対象物画像Doは猫の画像として収集されたものであり、「猫」を示すラベル情報が付加されている。一方、非対象物画像Dnは、対象物以外の物体を含む画像であり、ラベルは付与されていなくてもよい。
識別モデル生成部21は、画像から対象物を識別するための識別モデル22を生成する。識別モデル22は、ニューラルネットワークを用いて構成され、対象物画像Doと非対象物画像Dnにより学習される。対象物画像Doと非対象物画像Dnを用いて学習することにより、識別モデル22は、入力された画像に含まれる物体が対象物であるか否かを識別できるようになる。
識別モデル22が生成されると、対象物を含む対象物画像Doが識別モデル22に入力される。ここで入力される対象物画像Doは、学習データの基になる画像である。注目領域検出部23は、対象物画像Doが入力された状態の識別モデル22を用いて、画像中の注目領域を検出する。ここで、「注目領域」とは、画像において対象物が存在すると予測される領域である。具体的に、注目領域検出部23は、対象物画像Doが入力された状態の識別モデル22から特徴マップを生成する。ここで、「特徴マップ」は、入力された画像全体について画像の特徴量を示すマップである。なお、特徴マップは、識別モデルを構成するニューラルネットワークにおいて、画像全体の特徴量を示す層から取得することができる。一例としては、GAP(Global Average Pooling)を用いたCAM(Class Activation Mapping)などにより特徴マップを得ることができる。注目領域は、特徴マップにおいて特徴量の値が大きい領域となる。
図3に、対象物画像Doの例を示す。いま、対象物を「車」とする。識別モデル22に車の対象物画像を入力し、特徴マップを取得する。この特徴マップにおいて、特徴量の値が大きい領域(図3において、明るく表示されている領域)が注目領域として検出される。
矩形生成部24は、特徴マップにおける注目領域に対応する矩形を生成する。具体的には、矩形生成部24は、特徴マップにおける特徴量の値が所定の閾値以上である領域に外接する矩形を生成する。図3の例では、特徴マップにおいて明るく表示されている領域が注目領域であり、矩形生成部24は注目領域に外接する矩形を生成する。この矩形が、対象物画像Doにおける対象物の位置を示す矩形となる。矩形生成部24は、生成した矩形を学習データ生成部25に供給する。
学習データ生成部25は、学習データを生成し、出力する。学習データ生成部25には、対象物画像Doが入力されており、学習データ生成部25は、対象物画像Doにもともと付与されているラベルと、矩形生成部24が生成した矩形とを学習データとして出力する。
(学習データ生成処理)
次に、第1実施形態に係る学習データ生成装置10による学習データ生成処理について説明する。図4は、第1実施形態による学習データ生成処理のフローチャートである。この処理は、図1に示すプロセッサ13が、予め用意されたプログラムを実行し、図2に示す各要素として動作することにより実施される。
まず、識別モデル生成部21は対象物画像Do及び非対象物画像Dnを取得し(ステップS11)、それらを用いて識別モデル22を生成する(ステップS12)。識別モデル22が生成されると、対象物画像Doが識別モデル22に入力される(ステップS13)。注目領域検出部23は、識別モデル22から特徴マップを生成して注目領域を検出し(ステップS14)、矩形生成部24は注目領域に外接する矩形を生成する(ステップS15)。そして、学習データ生成部25は、対象物画像Doに付与されているラベルと、矩形生成部24が生成した矩形とを含む学習データを生成し、出力する(ステップS16)。
次に、予め用意された全ての対象物画像Doの処理が終了したか否かが判定される(ステップS17)。全ての対象物画像Doの処理が終了していない場合(ステップS17:No)、処理はステップS13に戻り、次の対象物画像DoについてステップS13~16の処理を行う。そして、全ての対象物画像Doの処理が終了すると(ステップS17:Yes)、学習データ生成処理は終了する。
[第2実施形態]
次に、第2実施形態の学習データ生成装置について説明する。第1実施形態では、特徴マップの注目領域に外接する矩形を学習データとして出力しているが、実際には、特徴マップの注目領域に基づいて生成された矩形が、対象物の位置を正しく示していないことが起こりうる。具体的には、以下の2つのケースが考えられる。
(ケースA)矩形が対象物の一部にしか対応していない
図5に、この場合の対象物画像の例を示す。この例では、対象物が「飛行機」であるとする。この対象物画像の場合、正しい矩形は、飛行機全体に対応する矩形40である。ところが、対象物画像を識別モデルに入力して得られた特徴マップでは、飛行機の一部(右翼の付け根の部分)のみが注目領域として検出されており、その結果得られた矩形41は飛行機の一部にしか対応していない。
このような場合、学習データ生成装置は図5に示す矩形の拡大処理を行えばよい。なお、実際には学習データ生成装置は矩形41がケースAに該当するか否かを知ることはできないが、ケースAに該当する可能性があるとして、得られた全ての矩形に対して以下の拡大処理を実行する。
まず、学習データ生成装置は、得られた矩形41の領域をマスクしてマスク画像を生成する。具体的には、矩形41の領域における特徴マップの特徴量を全て「0」又は十分小さい値に置き換える。そして、学習データ生成装置は、マスク画像を再度識別モデルに入力し、識別モデルがマスク画像を飛行機と認識するか否かを判定する。具体的には、学習データ生成装置は、識別モデルによる飛行機としての識別結果の信頼度が所定値以上であるか否かを判定する。
図5の例の場合、即ち、矩形がケースAに該当する場合、特徴マップ上には矩形41の領域以外にも飛行機としての特徴が存在し、矩形41よりも大きな領域が飛行機に対応すると考えられるので、マスク画像も飛行機と認識される可能性が高い。よって、識別モデルがマスク画像を飛行機と認識した場合、学習データ生成装置は、マスク画像に基づいて特徴マップを生成し、矩形を再生成する。これにより、図5に示すように、正解の矩形40に近い新たな矩形41xが得られる。一方、識別モデルがマスク画像を飛行機と認識しなかった場合、矩形41の領域以外には飛行機としての特徴が存在しない、即ち、矩形41はケースAには該当しないと考えられるので、学習データ生成装置は元の矩形41を採用し、処理を終了する。
(ケースB)矩形が複数の対象物を含む
図6は、この場合の対象物画像の例を示す。この例では、複数の飛行機が一団となって飛行しており、複数(本例では5つ)の飛行機の領域全体が1つの矩形41として検出されている。このような場合、理想的には、個々の飛行機の領域40を矩形として検出できることが望ましい。
この場合、学習データ生成装置は、図6に示すように矩形の縮小処理を行えばよい。なお、実際には、学習データ生成装置は矩形41がケースBに該当するか否かを知ることはできないが、ケースBに該当する可能性があるとし、得られた全ての矩形41に対して以下の縮小処理を実行する。
まず、学習データ生成装置は、得られた矩形41の領域を切り出して切り出し画像を生成する。そして、切り出し画像を識別モデルに入力し、識別モデルが切り出し画像を飛行機と認識するか否かを判定する。
切り出し画像は元の画像よりも矩形41の領域にズームした画像であるので、ケースBの場合、即ち、切り出し画像が図6のように複数の物体を含んでいる場合、切り出し画像も飛行機と認識される可能性が高い。よって、識別モデルが切り出し画像を飛行機と認識した場合、学習データ生成装置は、切り出し画像を新たな対象物画像Doとして識別モデルを再学習し、再学習された識別モデルに切り出し画像を入力し、特徴マップを作成して矩形を再生成する。こうすると、再学習により、識別モデルは複数の飛行機を含む画像から個々の飛行機を検出しやすくなるので、再生成された矩形は、矩形40のように個々の飛行機を示す矩形となる可能性が高くなる。
一方、識別モデルが切り出し画像を飛行機と認識しなかった場合、矩形41は図6のように複数の飛行機を含むものではなく、上記のケースBには該当しないと考えられる。よって、学習データ生成装置は、元の矩形41を採用し、処理を終了する。
このように、第2実施形態では、最初に得られた矩形が上記のケースA又はケースBに該当している可能性があるため、矩形の拡大処理及び縮小処理を行ってみる。これにより、最初に得られた矩形が実際にケースA又はケースBに該当するときには、より精度の高い矩形を再生成することが可能となる。一方、最初に得られた矩形がケースA又ケースBに該当しない場合には、元の矩形が採用されるので問題はない。なお、矩形の拡大処理及び縮小処理を行う回数は、実験などにより予め決めておくことが好ましい。
(機能構成)
図7は、第2実施形態に係る学習データ生成装置の機能構成を示すブロック図である。なお、第2実施形態に係る学習データ生成装置のハードウェア構成は図1に示すものと同様である。図示のように、第2実施形態に係る学習データ生成装置10aは、図2に示す第1実施形態の学習データ生成装置10の構成に加えて、矩形調整部26を備える。矩形調整部26は、本発明の画像マスク部及び画像切り出し部の一例である。なお、矩形調整部26以外の、識別モデル生成部21、識別モデル22、注目領域検出部23、矩形生成部24及び学習データ生成部25は、基本的に第1実施形態と同様に動作する。
矩形調整部26は、まず、上記のケースAの場合に対応するため、矩形の拡大処理を行う。具体的には、矩形調整部26は、矩形の領域をマスクしたマスク画像を生成し、識別モデル22に入力する。そして、識別モデル22がマスク画像を対象物と認識した場合、注目領域検出部23はマスク画像に基づいて注目領域を検出し、矩形生成部24はその注目領域に基づいて矩形を再生成する。
また、矩形調整部26は、上記のケースBの場合に対応するため、矩形の縮小処理を行う。具体的には、矩形調整部26は、矩形の領域を切り出して切り出し画像を生成し、識別モデル22に入力する。そして、識別モデル22が切り出し画像を対象物と認識した場合、矩形調整部26は切り出し画像を識別モデル生成部21に入力して識別モデル22の再学習を行い、注目領域検出部23は再学習後の識別モデルを用いて切り出し画像から注目領域を検出し、矩形生成部24はその注目領域に基づいて矩形を再生成する。
(学習データ生成処理)
次に、第2実施形態による学習データ生成処理について説明する。この処理は、図1に示すプロセッサ13が、予め用意されたプログラムを実行し、図7に示す各要素として動作することにより実施される。
第2実施形態の学習データ生成処理のメインルーチンは、基本的には図4に示す第1実施形態と同様である。但し、第2実施形態は、図4に示すステップS15の矩形生成処理において上述の矩形の拡大及び縮小処理を行う点が第1実施形態と異なる。図7は、第2実施形態における矩形生成処理を示すフローチャートである。
まず、矩形生成部24は、第1実施形態と同様に最初の矩形を生成する(ステップS22)。次に、矩形の拡大処理が行われる。まず、矩形調整部26は矩形をマスクしてマスク画像を生成し、識別モデル22に再入力する(ステップS23)。次に、マスク画像が識別モデル22により対象物と認識されたか否かが判定される(ステップS24)。マスク画像が対象物と認識された場合(ステップS24:Yes)、矩形は上記のケースAに該当すると考えられる。よって、注目領域検出部23はマスク画像に対する特徴マップを再生成して注目領域を再検出し(ステップS25)、矩形生成部24は注目領域に基づいて矩形を再生成する(ステップS26)。
次に、ステップS23~S26の拡大処理が所定回数行われたか否かが判定される(ステップS27)。拡大処理が所定回数行われていない場合(ステップS27:No)、処理はステップS23へ戻り、ステップS23~S26が繰り返される。一方、拡大処理が所定回数行われた場合(ステップS27:Yes)、処理は図4に示すメインルーチンに戻る。
ステップS24において、マスク画像が対象物と認識されなかった場合、矩形はケースAには該当しないと考えられる。よって、次に矩形の縮小処理が行われる。具体的には、矩形調整部26が矩形を切り出して切り出し画像を生成し、識別モデル22に再入力する(ステップS28)。次に、切り出し画像が識別モデル22により対象物と認識されたか否かが判定される(ステップS29)。切り出し画像が対象物と認識された場合(ステップS29:Yes)、矩形はケースBに該当すると考えられる。よって、識別モデル生成部21は切り出し画像を用いて識別モデル22を再学習する(ステップS30)。次に、再学習した識別モデルに切り出し画像が入力され、注目領域検出部23は切り出し画像に対する特徴マップを再生成して注目領域を再検出し(ステップS31)、矩形生成部24は注目領域に基づいて矩形を再生成する(ステップS32)。
次に、ステップS28~S32の縮小処理が所定回数行われたか否かが判定される(ステップS33)。縮小処理が所定回数行われていない場合(ステップS33:No)、処理はステップS28へ戻る。一方、拡大処理が所定回数行われた場合(ステップS33:Yes)、処理は図4に示すメインルーチンに戻る。
ステップS29において、切り出し画像が対象物と認識されなかった場合、矩形はケースBには該当しないと考えられる。よって、処理は、ステップS23に戻る。こうして、矩形の拡大処理及び縮小処理が予め決められた回数にわたり実行され、最終的な矩形が決定される。そして、処理は図4に示すメインルーチンに戻る。その後の処理は、第1実施形態と同様である。
以上のように、第2実施形態では、最初に得られた矩形に対して拡大処理及び縮小処理を行うことにより、矩形が上記のケースA又はケースBに該当する場合に、より正確な矩形を再生成することができる。
[第3実施形態]
次に、第3実施形態について説明する。図9は、第3実施形態に係る学習データ生成装置30の機能構成を示すブロック図である。なお、第3実施形態の学習データ生成装置30のハードウェア構成は図1と同様である。学習データ生成装置30は、識別モデル生成部31と、注目領域検出部32と、矩形生成部33と、学習データ出力部34と、を備える。
識別モデル生成部31は、対象物を含み当該対象物のラベルが付与された対象物画像と、非対象物を含む非対象物画像とを用いて、画像に含まれる対象物を識別する識別モデルを生成する。注目領域検出部32は、対象物画像を識別モデルに入力し、対象物を含むと予測される領域である注目領域を検出する。矩形生成部33は、注目領域に基づいて、対象物に外接する矩形を生成する。学習データ出力部34は、対象物のラベル及び矩形を含む学習データを出力する。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
対象物を含み当該対象物のラベルが付与された対象物画像と、非対象物を含む非対象物画像とを用いて、画像に含まれる対象物を識別する識別モデルを生成する識別モデル生成部と、
前記対象物画像を前記識別モデルに入力し、前記対象物を含むと予測される領域である注目領域を検出する注目領域検出部と、
前記注目領域に基づいて、前記対象物に外接する矩形を生成する矩形生成部と、
前記対象物のラベル及び前記矩形を含む学習データを出力する学習データ出力部と、
を備える学習データ生成装置。
(付記2)
前記対象物画像における前記矩形をマスクしてマスク画像を生成し、前記識別モデルに再入力する画像マスク部を備え、
当該マスク画像が前記識別モデルにより前記対象物と認識された場合、前記注目領域検出部は前記マスク画像から前記注目領域を検出し、前記矩形生成部は前記マスク画像から検出された注目領域に基づいて矩形を再生成する付記1に記載の学習データ生成装置。
(付記3)
前記対象物画像における前記矩形を切り出して切り出し画像を生成し、前記識別モデルに再入力する画像切り出し部を備え、
当該切り出し画像が前記識別モデルにより前記対象物と認識された場合、前記識別モデル生成部は当該切り出し画像を用いて前記識別モデルを再学習し、前記注目領域検出部は再学習された識別モデルを用いて前記切り出し画像から前記注目領域を検出し、前記矩形生成部は前記切り出し画像から検出された注目領域に基づいて矩形を再生成する付記1又は2に記載の学習データ生成装置。
(付記4)
前記注目領域検出部は、前記対象物画像が入力された際に識別モデルが生成する特徴量に基づいて、前記対象物画像全体に対応する特徴マップを生成し、当該特徴マップ内の閾値以上の値を有する領域を前記注目領域として検出する付記1乃至3のいずれか一項に記載の学習データ生成装置。
(付記5)
対象物を含み当該対象物のラベルが付与された対象物画像と、非対象物を含む非対象物画像とを用いて、画像に含まれる対象物を識別する識別モデルを生成し、
前記対象物画像を前記識別モデルに入力し、前記対象物を含むと予測される領域である注目領域を検出し、
前記注目領域に基づいて、前記対象物に外接する矩形を生成し、
前記対象物のラベル及び前記矩形を含む学習データを出力する学習データ生成方法。
(付記6)
前記対象物画像における前記矩形をマスクしてマスク画像を生成し、前記識別モデルに再入力し、
当該マスク画像が前記識別モデルにより前記対象物と認識された場合、前記マスク画像から前記注目領域を検出し、前記マスク画像から検出された注目領域に基づいて矩形を再生成する付記5に記載の学習データ生成方法。
(付記7)
前記対象物画像における前記矩形を切り出して切り出し画像を生成し、前記識別モデルに再入力し、
当該切り出し画像が前記識別モデルにより前記対象物と認識された場合、当該切り出し画像を用いて前記識別モデルを再学習し、再学習された識別モデルを用いて前記切り出し画像から前記注目領域を検出し、前記切り出し画像から検出された注目領域に基づいて矩形を再生成する付記5又は6に記載の学習データ生成方法。
(付記8)
前記注目領域の検出は、前記対象物画像が入力された際に識別モデルが生成する特徴量に基づいて、前記対象物画像全体に対応する特徴マップを生成し、当該特徴マップ内の閾値以上の値を有する領域を前記注目領域として検出することにより行われる付記5乃至7のいずれか一項に記載の学習データ生成方法。
(付記9)
対象物を含み当該対象物のラベルが付与された対象物画像と、非対象物を含む非対象物画像とを用いて、画像に含まれる対象物を識別する識別モデルを生成し、
前記対象物画像を前記識別モデルに入力し、前記対象物を含むと予測される領域である注目領域を検出し、
前記注目領域に基づいて、前記対象物に外接する矩形を生成し、
前記対象物のラベル及び前記矩形を含む学習データを出力する処理をコンピュータに実行させるプログラムを記録した記録媒体。
以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
10、10a、30 学習データ生成装置
21 識別モデル生成部
22 識別モデル
23 注目領域検出部
24 矩形生成部
25 学習データ生成部

Claims (7)

  1. 対象物を含み当該対象物のラベルが付与された対象物画像と、非対象物を含む非対象物画像とを用いて、画像に含まれる対象物を識別する識別モデルを生成する識別モデル生成手段と、
    前記対象物画像を前記識別モデルに入力し、前記対象物を含むと予測される領域である注目領域を検出する注目領域検出手段と、
    前記注目領域に外接する矩形を生成する矩形生成手段と、
    前記対象物のラベル及び前記矩形を含む学習データを出力する学習データ出力手段と、
    前記対象物画像における前記矩形をマスクしてマスク画像を生成し、前記識別モデルに再入力する画像マスク手段と、を備え
    当該マスク画像が前記識別モデルにより前記対象物と認識された場合、前記注目領域検出手段は前記マスク画像から前記注目領域を検出し、前記矩形生成手段は前記マスク画像から検出された注目領域に基づいて矩形を再生成する学習データ生成装置。
  2. 前記対象物画像における前記矩形を切り出して切り出し画像を生成し、前記識別モデルに再入力する画像切り出し手段を備え、
    当該切り出し画像が前記識別モデルにより前記対象物と認識された場合、前記識別モデル生成手段は当該切り出し画像を用いて前記識別モデルを再学習し、前記注目領域検出手段は再学習された識別モデルを用いて前記切り出し画像から前記注目領域を検出し、前記矩形生成手段は前記切り出し画像から検出された注目領域に基づいて矩形を再生成する請求項1記載の学習データ生成装置。
  3. 前記注目領域検出手段は、前記対象物画像が入力された際に識別モデルが生成する特徴量に基づいて、前記対象物画像全体に対応する特徴マップを生成し、当該特徴マップ内の閾値以上の値を有する領域を前記注目領域として検出する請求項1又は2に記載の学習データ生成装置。
  4. 識別モデル生成手段が、対象物を含み当該対象物のラベルが付与された対象物画像と、非対象物を含む非対象物画像とを用いて、画像に含まれる対象物を識別する識別モデルを生成し、
    注目領域検出手段が、前記対象物画像を前記識別モデルに入力し、前記対象物を含むと予測される領域である注目領域を検出し、
    矩形生成手段が、前記注目領域に外接する矩形を生成し、
    学習データ出力手段が、前記対象物のラベル及び前記矩形を含む学習データを出力し、
    画像マスク手段が、前記対象物画像における前記矩形をマスクしてマスク画像を生成し、前記識別モデルに再入力し、
    当該マスク画像が前記識別モデルにより前記対象物と認識された場合、前記注目領域検出手段は前記マスク画像から前記注目領域を検出し、前記矩形生成手段は前記マスク画像から検出された注目領域に基づいて矩形を再生成する学習データ生成方法。
  5. 画像切り出し手段が、前記対象物画像における前記矩形を切り出して切り出し画像を生成し、前記識別モデルに再入力し、
    当該切り出し画像が前記識別モデルにより前記対象物と認識された場合、当該切り出し画像を用いて前記識別モデルを再学習し、再学習された識別モデルを用いて前記切り出し画像から前記注目領域を検出し、前記切り出し画像から検出された注目領域に基づいて矩形を再生成する請求項に記載の学習データ生成方法。
  6. 前記注目領域の検出は、前記対象物画像が入力された際に識別モデルが生成する特徴量に基づいて、前記対象物画像全体に対応する特徴マップを生成し、当該特徴マップ内の閾値以上の値を有する領域を前記注目領域として検出することにより行われる請求項4又は記載の学習データ生成方法。
  7. 対象物を含み当該対象物のラベルが付与された対象物画像と、非対象物を含む非対象物画像とを用いて、画像に含まれる対象物を識別する識別モデルを生成し、
    前記対象物画像を前記識別モデルに入力し、前記対象物を含むと予測される領域である注目領域を検出し、
    前記注目領域に外接する矩形を生成し、
    前記対象物のラベル及び前記矩形を含む学習データを出力し、
    前記対象物画像における前記矩形をマスクしてマスク画像を生成し、前記識別モデルに再入力し、
    当該マスク画像が前記識別モデルにより前記対象物と認識された場合、前記マスク画像から前記注目領域を検出し、前記マスク画像から検出された注目領域に基づいて矩形を再生成する処理をコンピュータに実行させるプログラム。
JP2021550982A 2019-10-08 2019-10-08 学習データ生成装置、学習データ生成方法、及び、プログラム Active JP7355111B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/039699 WO2021070258A1 (ja) 2019-10-08 2019-10-08 学習データ生成装置、学習データ生成方法、及び、記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021070258A1 JPWO2021070258A1 (ja) 2021-04-15
JPWO2021070258A5 JPWO2021070258A5 (ja) 2022-05-27
JP7355111B2 true JP7355111B2 (ja) 2023-10-03

Family

ID=75437386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550982A Active JP7355111B2 (ja) 2019-10-08 2019-10-08 学習データ生成装置、学習データ生成方法、及び、プログラム

Country Status (3)

Country Link
US (1) US20220366603A1 (ja)
JP (1) JP7355111B2 (ja)
WO (1) WO2021070258A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012094564A1 (en) * 2011-01-06 2012-07-12 Veveo, Inc. Methods of and systems for content search based on environment sampling
US11657230B2 (en) * 2020-06-12 2023-05-23 Adobe Inc. Referring image segmentation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Ali Diba, et al.,"Weakly Supervised Cascaded Convolutional Networks",arXiv:1611.08258v1,version v1,[online], arXiv (Cornell University),2016年11月24日,Pages 1-10,[令和元年12月6日検索], インターネット, <URL: https://arxiv.org/abs/1611.08258v1> and <URL: https://arxiv.org/pdf/1611.08258v1.pdf>.

Also Published As

Publication number Publication date
US20220366603A1 (en) 2022-11-17
WO2021070258A1 (ja) 2021-04-15
JPWO2021070258A1 (ja) 2021-04-15

Similar Documents

Publication Publication Date Title
US10410353B2 (en) Multi-label semantic boundary detection system
CN108805170B (zh) 形成用于全监督式学习的数据集
JP2022505762A (ja) 画像セマンティックセグメンテーションネットワークのトレーニング方法、装置、機器及びコンピュータプログラム
US20150278710A1 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium
KR20190088094A (ko) 자동 학습 데이터 생성을 통한 모델 학습 시스템 및 방법
WO2020072918A1 (en) Automated system to measure multi-animal body part dynamics
KR20200077321A (ko) 약한 지도학습 객체 검출기에 기반한 의미론적 객체 영역 분할 방법 및 시스템
JP7355111B2 (ja) 学習データ生成装置、学習データ生成方法、及び、プログラム
EP3937076A1 (en) Activity detection device, activity detection system, and activity detection method
CN112231034A (zh) 结合rpa和ai的软件界面元素的识别方法与装置
KR20220122456A (ko) 영상 데이터에 포함된 개인식별정보 비식별화 방법 및 이를 수행하는 장치
CN112541394A (zh) 黑眼圈及鼻炎识别方法、系统及计算机介质
CN115393598A (zh) 一种基于非显著区域对象挖掘的弱监督语义分割方法
CN110009038B (zh) 筛查模型的训练方法、装置及存储介质
CN111104539A (zh) 细粒度车辆图像检索方法、装置及设备
KR20210050771A (ko) 이미지 기반의 사용자 인터페이스 객체 탐지 시스템 및 방법
EP4099225A1 (en) Method for training a classifier and system for classifying blocks
WO2021245896A1 (ja) 分割認識方法、分割認識装置及びプログラム
Pavan et al. Human Action Recognition in Still Images Using SIFT Key Points
Ravinder et al. An approach for gesture recognition based on a lightweight convolutional neural network
CN111782847A (zh) 图像处理方法、装置和计算机可读存储介质
KR102599192B1 (ko) 객체 검출 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
US20240144635A1 (en) Techniques For Unsupervised Anomaly Classification Using An Artificial Intelligence Model
Tran et al. Weighted Box Fusion Ensembling for Lung Disease Detection
JP7166423B1 (ja) 弱教師あり客体認識装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R151 Written notification of patent or utility model registration

Ref document number: 7355111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151