WO2022102525A1 - データ作成システム、学習システム、推定システム、処理装置、評価システム、データ作成方法、及びプログラム - Google Patents

データ作成システム、学習システム、推定システム、処理装置、評価システム、データ作成方法、及びプログラム Download PDF

Info

Publication number
WO2022102525A1
WO2022102525A1 PCT/JP2021/040716 JP2021040716W WO2022102525A1 WO 2022102525 A1 WO2022102525 A1 WO 2022102525A1 JP 2021040716 W JP2021040716 W JP 2021040716W WO 2022102525 A1 WO2022102525 A1 WO 2022102525A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
image data
data
unit
data creation
Prior art date
Application number
PCT/JP2021/040716
Other languages
English (en)
French (fr)
Inventor
太一 佐藤
良介 後藤
勇斗 北川
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2022561869A priority Critical patent/JPWO2022102525A1/ja
Priority to CN202180070260.4A priority patent/CN116368518A/zh
Priority to US18/249,928 priority patent/US20230394798A1/en
Publication of WO2022102525A1 publication Critical patent/WO2022102525A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本開示の課題は、オブジェクトに関する認識性能の低下の抑制を図ることにある。データ作成システム(1)は、第1画像データ(D11)から、オブジェクト(4)に関する学習済みモデル(M1)を生成するための学習用データとして用いられる第2画像データ(D12)を作成する。データ作成システム(1)は、変形部(11)と、除去部(12)と、特徴取得部(13)と、特徴付与部(14)と、を備える。変形部(11)は、オブジェクト(4)を示す画素領域(R1)を含む第1画像データ(D11)から、オブジェクト(4)に関する変形を施した第2画像データ(D12)を生成する。除去部(12)は、第1画像データ(D11)に存在する線状の第1特徴(X1)を除去する。特徴取得部(13)は、第2特徴(X2)を取得する。特徴付与部(14)は、第2特徴(X2)を第2画像データ(D12)に付与する。

Description

データ作成システム、学習システム、推定システム、処理装置、評価システム、データ作成方法、及びプログラム
 本開示は、一般に、データ作成システム、学習システム、推定システム、処理装置、評価システム、データ作成方法、及びプログラムに関する。より詳細には本開示は、オブジェクトに関する学習済みモデルを生成するための学習用データとして用いられる画像データを作成するデータ作成システム、当該学習済みモデルを生成する学習システム、当該学習済みモデルを用いる推定システムに関する。また本開示は、当該データ作成システムに用いられる処理装置、当該処理装置を備える評価システムに関する。また本開示は、オブジェクトに関する学習済みモデルを生成するための学習用データとして用いられる画像データを作成するデータ作成方法、及びプログラムに関する。
 特許文献1には、X線画像物体認識システムが開示されている。このX線画像物体認識システムでは、学習ネットワークが、物体のX線画像と正解ラベルとを含む学習セットを用いて機械学習を行う。また特許文献1には、学習データが少ない場合、学習データを増やす処理として、元画像に対して移動、回転、拡大・縮小、反転等の人為的な操作を加えることによって、画像数を擬似的に増やすデータ拡張(Data augmentation)を行うことが開示されている。
 さらに特許文献1には、元画像に対して移動、回転、拡大・縮小、反転等のデータ拡張を行うと、実際にはあり得ないシーンの画像が作成され、意図しない学習が行われて、推論時には、物体の認識性能が低下することについて開示されている。そこで、このX線画像物体認識システムでは、データ拡張を行う際のパラメータ(X線画像の縮小・拡大率、シフト量、回転角のうちの少なくとも1つ)を適切に設定することにより、意図しないデータ拡張が行われるのを回避する。
 特許文献1のX線画像物体認識システムでは、単にX線画像の縮小・拡大率、シフト量、及び回転角のパラメータを設定するだけである。そのため、物体(オブジェクト)によっては依然として実際にはあり得ない画像が作成される可能性があり、結果的に、推論フェーズにおいてオブジェクトに関する認識性能が低下し得る。
特開2020-14799号公報
 本開示は上記事由に鑑みてなされ、オブジェクトに関する認識性能の低下の抑制を図ることができる、データ作成システム、学習システム、推定システム、処理装置、評価システム、データ作成方法、及びプログラムを提供することを目的とする。
 本開示の一態様のデータ作成システムは、第1画像データから、オブジェクトに関する学習済みモデルを生成するための学習用データとして用いられる第2画像データを作成する。前記データ作成システムは、変形部と、除去部と、特徴取得部と、特徴付与部と、を備える。前記変形部は、前記オブジェクトを示す画素領域を含む前記第1画像データから、前記オブジェクトに関する変形を施した前記第2画像データを生成する。前記除去部は、前記第1画像データに存在する線状の第1特徴を除去する。前記特徴取得部は、第2特徴を取得する。前記特徴付与部は、前記第2特徴を前記第2画像データに付与する。
 本開示の一態様の処理装置は、前記データ作成システムにおいて前記第1画像データから前記第1特徴を抽出する特徴抽出部を有する第1処理装置と前記特徴付与部を有する第2処理装置とのうちの、前記第1処理装置である。
 本開示の別の一態様の処理装置は、前記データ作成システムにおいて前記第1画像データから前記第1特徴を抽出する特徴抽出部を有する第1処理装置と前記特徴付与部を有する第2処理装置とのうちの、前記第2処理装置である。
 本開示の別の一態様のデータ作成システムは、オブジェクトに関する学習済みモデルを生成するための学習用データとして用いられる画像データを作成する。前記データ作成システムは、特徴取得部と、特徴付与部と、を備える。前記特徴取得部は、線状の特徴を取得する。前記特徴付与部は、前記オブジェクトを示す画素領域を含む前記画像データに、前記線状の特徴を付与する。
 本開示の一態様の学習システムは、上記のいずれか一方のデータ作成システムで作成された画像データとしての前記学習用データを含む学習用データセットを用いて、前記学習済みモデルを生成する。
 本開示の一態様の推定システムは、上記の学習システムで生成された前記学習済みモデルを用いて、認識対象となる前記オブジェクトにおける特定状態に関する推定を行う。
 本開示の一態様の評価システムは、オブジェクトにおける特定状態に関する推定を行う評価システムである。前記評価システムは、処理装置と、推定システムと、を備える。前記処理装置は、オブジェクトを示す画素領域を含む第1画像データに存在する線状の第1特徴を抽出する。前記処理装置は、抽出した前記第1特徴を示す情報を出力する。前記推定システムは、前記第1画像データから前記第1特徴を除去し前記オブジェクトに関する変形を施した第2画像データに第2特徴を付与した画像データに対して、前記オブジェクトの特定状態に関する推定について前記第1画像データと同等の推定結果を出力する。
 本開示の別の一態様の学習システムは、前記評価システムにおいて前記推定システムが前記推定を行うのに用いる学習済みモデルを生成する学習システムである。
 本開示の一態様の処理装置は、前記評価システムにおける前記処理装置である。
 本開示の別の一態様の推定システムは、前記評価システムにおける前記推定システムである。
 本開示の一態様のデータ作成方法は、第1画像データから、オブジェクトに関する学習済みモデルを生成するための学習用データとして用いられる第2画像データを作成するデータ作成方法である。前記データ作成方法は、変形ステップと、除去ステップと、特徴取得ステップと、特徴付与ステップと、を含む。前記変形ステップでは、前記オブジェクトを示す画素領域を含む前記第1画像データから、前記オブジェクトに関する変形を施した前記第2画像データを生成する。前記除去ステップでは、前記第1画像データに存在する線状の第1特徴を除去する。前記特徴取得ステップでは、第2特徴を取得する。前記特徴付与ステップでは、前記第2特徴を前記第2画像データに付与する。
 本開示の別の一態様のデータ作成方法は、オブジェクトに関する学習済みモデルを生成するための学習用データとして用いられる画像データを作成するデータ作成方法である。前記データ作成方法は、特徴取得ステップと、特徴付与ステップと、を含む。前記特徴取得ステップでは、線状の特徴を取得する。前記特徴付与ステップでは、前記オブジェクトを示す画素領域を含む前記画像データに、前記線状の特徴を付与する。
 本開示の一態様のプログラムは、1以上のプロセッサに、上記のいずれかのデータ作成方法を実行させるためのプログラムである。
図1は、一実施形態に係るデータ作成システムを備える評価システム全体の概略ブロック構成図である。 図2は、同上のデータ作成システムに入力される第1画像データの平面図である。 図3Aは、同上の第1画像データの模式的な図である。図3Bは、同上のデータ作成システムにおけるオブジェクト抽出処理を説明するための図である。図3Cは、同上のデータ作成システムにおける除去処理を説明するための図である。 図4Aは、同上のデータ作成システムにおける変形処理を説明するための図である。図4Bは、同上のデータ作成システムにおける特徴付与処理を説明するための図である。 図5は、同上のデータ作成システムの動作を説明するためのフローチャート図である。 図6は、同上のデータ作成システムにおける変形例1の概略ブロック構成図である。 図7は、同上の変形例1を説明するための概念図である。 図8は、同上のデータ作成システムにおける変形例2の変形処理を説明するための図である。 図9Aは、同上の変形例2の変形処理における第1変形を説明するための図である。図9Bは、同上の変形例2の変形処理における第2変形を説明するための図である。 図10は、同上のデータ作成システムにおける変形例3の概略ブロック構成図である。
 (1)概要
 以下の実施形態において説明する各図は、模式的な図であり、各図中の各構成要素の大きさ及び厚さそれぞれの比が、必ずしも実際の寸法比を反映しているとは限らない。
 本実施形態に係るデータ作成システム1は、図1に示すように、第1画像データD11から、オブジェクト4(図2及び図3A参照)に関する学習済みモデルM1を生成するための学習用データとして用いられる第2画像データD12を作成する。つまり、第2画像データD12は、モデルを機械学習するために用いられる学習用データである。本開示でいう「モデル」は、認識対象(オブジェクト4)に関するデータが入力されると、認識対象がどのような状態にあるかを推定し、推定結果(認識結果)を出力するプログラムである。「学習済みモデル」は、学習用データを用いた機械学習が完了したモデルをいう。また「学習用データ(セット)」は、モデルに入力される入力情報(画像データD1)と、入力情報に付与されたラベルと、を組み合わせたデータセットであり、いわゆる教師データである。つまり、本実施形態では、学習済みモデルM1は、教師あり学習による機械学習が完了したモデルである。
 本実施形態では一例として、認識対象であるオブジェクト4は、図2及び図3Aに示すように、ビードB10である。ビードB10は、金属の溶接材B13を用いて2以上の母材(ここでは第1金属板B11及び第2金属板B12)を溶接した際に、第1金属板B11及び第2金属板B12の境目B14(溶接箇所)に形成される。ビードB10の大きさ及び形状は、主に溶接材B13に依存する。したがって、学習済みモデルM1は、ビードB10を含む認識対象画像データD3が入力されると、ビードB10の状態(特定状態)を推定し、推定結果を出力する。具体的には、学習済みモデルM1は、推定結果として、ビードB10が良品であるか不良品であるか、不良品である場合は不良の種類を出力する。つまり、学習済みモデルM1は、ビードB10が良品であるか否か、言い換えれば、溶接が正しく行われたか否かを検査する溶接外観検査のために用いられる。
 ビードB10が良品であるか否かは、一例として、ビードB10の長さ、ビードB10の高さ、ビードB10の立ち上がりの角度、ビードB10ののど厚、ビードB10の余盛、及びビードB10の溶接箇所の位置ずれ(ビードB10の始端のずれを含む)が許容範囲に収まっているか否かにより判定される。例えば、上記に列挙した条件のうち1つでも許容範囲に収まっていなければ、ビードB10が不良品であると判定される。また、ビードB10が良品であるか否かは、一例として、ビードB10のアンダーカットの有無、ビードB10のピットの有無、ビードB10のスパッタの有無、及びビードB10の突起の有無等に基づいて判定される。例えば、上記に列挙した不良部分のうち1つでも発生した場合、ビードB10が不良品であると判定される。
 ところで、モデルの機械学習を行うためには、認識対象の不良品を含む多数の画像データを学習用データとして用意する必要がある。しかしながら、認識対象の不良品が発生する頻度が少ない場合、認識率の高い学習済みモデルM1を生成するために必要な学習用データが不足しがちである。そこで、実際にビードB10を撮像装置(ラインセンサカメラ6)により撮像することで得られる学習用データ(以下、「第1画像データD11」又は「オリジナル学習用データ」と呼ぶ)についてデータ拡張(Data Augmentation)処理を実行することにより、学習用データの数を増やしてモデルの機械学習を行うことが考えられる。データ拡張処理は、学習用データに対して平行移動、拡大・縮小、回転、反転、又はノイズの付与等の処理(変換処理)を加えることで、学習用データを水増しする処理をいう。
 第1画像データD11は、例えば、距離画像データである。ここで、オリジナルの第1画像データD11には、距離画像センサを含む撮像装置(ラインセンサカメラ6)のスキャニング動作時における性能に応じて、多数の薄い直線状のスジ7(図3A等)が入り得る。図3A等の図面では、説明の便宜上、スジ7の方向性が分かりやすいように、多数存在するスジ7のうち、いくつかのスジ7だけ実線で模式的に示しているが、厳密にスジ7の位置や本数を規定する趣旨ではない。また説明の便宜上、図3Aは、図2の平面図を模式化した図である。
 このような「スジ」は、例えば、ラインセンサカメラ6を保持する多軸ロボットの手先のブレにより生じ得る。ラインセンサカメラ6が、撮像対象物に対してある一ラインのスキャニングを実行し、次のラインのスキャニングに移った際に、上記ブレにより、撮像対象物までの距離に若干の差が生じる。その結果、これらのスキャニングのライン(スキャンライン)間の境界において、「スジ」が、画像データ内で(距離画像センサからオブジェクト4までの距離に応じた)画素値の差として浮かび出る。各スキャンラインの幅は、ロボットの送り方向の分解能等に依存するが、例えばコンマ数mmである。
 そして、データ拡張処理で、多数の薄い直線状のスジ7が存在する第1画像データD11について、オブジェクト4に関する変形(例えば第1画像データD11の中心E1を軸に回転)を施すと、直線状のスジ7も意図しない状態に変わり得る。結果的に、意図しない状態のスジ(例えばスキャンラインの方向とは違う方向に沿ったスジ)を反映した学習済みモデルが作成される可能性がある。しかし、実際に入力され得る認識対象画像データD3には、そのようなスジは存在せず、推論時に、オブジェクト4に関する認識性能が低下してしまう可能性がある。
 本実施形態の一態様に係るデータ作成システム1は、図1に示すように、変形部11と、除去部12と、特徴取得部13と、特徴付与部14と、を備える。変形部11は、オブジェクト4を示す画素領域R1(図2参照)を含む第1画像データD11から、オブジェクト4に関する変形を施した第2画像データD12を生成する。除去部12は、第1画像データD11に存在する線状の第1特徴X1を除去する。特徴取得部13は、第2特徴X2を取得する。特徴付与部14は、第2特徴X2を第2画像データD12に付与する。
 ここでは一例として、線状の第1特徴X1は、直線状の特徴X11を含み、隣り合う2つのスキャンライン間の境界に関する直線状のスジ7が、直線状の特徴X11に相当する。またここでは一例として、第2特徴X2は、第1画像データD11に存在する線状の第1特徴X1(スジ7)を含む。特徴取得部13は、第2特徴X2として、第1画像データD11から第1特徴X1を取得する。
 要するに、第1画像データD11は、例えば回転後でも実際に存在し得る領域と、回転してしまうと実際には存在し得ない領域とを含んでおり、上記の直線状のスジ7は、後者に該当する一例である。
 本実施形態では、第1画像データD11に存在する線状の第1特徴X1を除去し、第2特徴X2を第2画像データD12に付与する。そのため、変形が施された線状の第1特徴X1が第2画像データD12に残ることで実際に存在しない画像データが作成されてしまう可能性が低減される。言い換えると、実際に存在し得る画像データにより近い形で、疑似的にデータ作成(例えばデータ拡張)を行うことができる。結果的に、オブジェクト4に関する認識性能の低下の抑制を図ることができる。
 また本実施形態に係る学習システム2(図1参照)は、データ作成システム1で作成された画像データとしての学習用データを含む学習用データセットを用いて、学習済みモデルM1を生成する。したがって、オブジェクト4に関する認識性能の低下の抑制を図ることが可能な学習システム2を提供できる。学習済みモデルM1を生成するための学習用データは、第2画像データD12(拡張データ)だけでなく、オリジナルの第1画像データD11も含み得る。言い換えると、本実施形態における画像データD1は、少なくとも第2画像データD12を含み、第1画像データD11及び第2画像データD12の両方を含み得る。
 また本実施形態に係る推定システム3(図1参照)は、学習システム2で生成された学習済みモデルM1を用いて、認識対象となるオブジェクト4(ここでは一例としてビードB10)における特定状態に関する推定を行う。したがって、オブジェクト4に関する認識性能の低下の抑制を図ることが可能な推定システム3を提供できる。
 また本実施形態に係るデータ作成方法は、第1画像データD11から、オブジェクト4に関する学習済みモデルM1を生成するための学習用データとして用いられる第2画像データD12を作成するデータ作成方法である。データ作成方法は、変形ステップと、除去ステップと、特徴取得ステップと、特徴付与ステップと、を含む。変形ステップでは、オブジェクト4を示す画素領域R1を含む第1画像データD11から、オブジェクト4に関する変形を施した第2画像データD12を生成する。除去ステップでは、第1画像データD11に存在する線状の第1特徴X1を除去する。特徴取得ステップでは、第2特徴X2を取得する。特徴付与ステップでは、第2特徴X2を第2画像データD12に付与する。この構成によれば、オブジェクト4に関する認識性能の低下の抑制を図ることが可能なデータ作成方法を提供できる。データ作成方法は、コンピュータシステム(データ作成システム1)上で用いられる。つまり、データ作成方法は、プログラムでも具現化可能である。本実施形態に係るプログラムは、本実施形態に係るデータ作成方法を、1以上のプロセッサに実行させるためのプログラムである。
 (2)詳細
 以下、本実施形態に係るデータ作成システム1を備える全体のシステム(以下、「評価システム100」と呼ぶ)について、図1~図5を参照しながら詳しく説明する。
 (2.1)全体構成
 評価システム100は、図1に示すように、データ作成システム1と、学習システム2と、推定システム3と、1又は複数台のラインセンサカメラ6(図1では1台のみ図示)とを備える。
 データ作成システム1、学習システム2、及び推定システム3は、サーバ等から構築されることを想定する。ここでいう「サーバ」は、1台のサーバ装置から構成されることを想定する。つまり、データ作成システム1、学習システム2、及び推定システム3の主な機能が、1台のサーバ装置に設けられていることを想定する。
 ただし、「サーバ」は、複数台のサーバ装置から構成されてもよい。具体的には、データ作成システム1、学習システム2、及び推定システム3の機能が、それぞれ個別のサーバ装置に設けられてもよいし、これらのうちの2つのシステムが1台のサーバ装置に設けられてもよい。またそのようなサーバ装置が、例えばクラウド(クラウドコンピューティング)を構築してもよい。
 またサーバ装置は、溶接現場となる工場内に設置されてもよいし、工場の外部(例えば事業本部)に設置されてもよい。データ作成システム1、学習システム2、及び推定システム3の機能がそれぞれ個別のサーバ装置に設けられている場合、各サーバ装置は、他のサーバ装置と通信可能に接続されていることが望ましい。
 データ作成システム1は、オブジェクト4に関する学習済みモデルM1を生成するための学習用データとして用いられる画像データD1を作成するように構成される。本開示でいう「学習用データの作成」は、オリジナル学習用データとは別に新しい学習用データを生成することの他に、オリジナル学習用データを更新することにより新しい学習用データを生成することを含み得る。
 ここでいう学習済みモデルM1は、例えばニューラルネットワークを用いたモデル、又は多層ニューラルネットワークを用いた深層学習(ディープラーニング)により生成されるモデルを含み得る。ニューラルネットワークは、例えばCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)、又はBNN(Bayesian Neural Network:ベイズニューラルネットワーク)等を含み得る。学習済みモデルM1は、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の集積回路に、学習済みのニューラルネットワークを実装することで実現されている。学習済みモデルM1は、ディープラーニングにより生成されるモデルに限定されない。学習済みモデルM1は、サポートベクターマシン、又は決定木等により生成されるモデルでもよい。
 ここでは、データ作成システム1は、上述の通り、オリジナル学習用データ(第1画像データD11)に対してデータ拡張処理を実行して、学習用データを水増しする機能を有している。以下では、データ作成システム1を備える評価システム100を利用する者を、単に「ユーザ」と呼ぶことがある。ユーザは、例えば、工場内で溶接工程等の製造工程を監視するオペレータ、又は管理責任者等に相当し得る。
 データ作成システム1は、図1に示すように、処理部10と、通信部16と、表示部17と、操作部18とを備える。
 図1の例では、学習用データ(画像データD1)を格納(記憶)するための格納部がデータ作成システム1の外部に設けられている。ただし、データ作成システム1が格納部を更に備えてもよく、その場合、格納部は処理部10が内蔵するメモリでもよい。画像データD1を格納する格納部は、EEPROM(Electrically Erasable Programmable Read-Only Memory)のような書き換え可能な不揮発性メモリを含む。
 データ作成システム1の一部の機能は、サーバと通信可能な情報端末に分散的に設けられてもよい。本開示でいう「情報端末」は、パーソナルコンピュータ(ノートパソコン又は据置型のパソコン)、スマートフォンやタブレット端末等の携帯型の端末等を含み得る。ここでは、表示部17及び操作部18の機能が、ユーザが使用する情報端末に設けられている。情報端末には、サーバと通信するための専用のアプリケーションソフトが予めインストールされる。
 処理部10は、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部10として機能する。プログラムは、ここでは処理部10のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。
 処理部10は、通信部16、表示部17、及び操作部18に関する制御処理を実行する。処理部10の機能は、サーバにあることを想定する。また処理部10は、画像処理を実行する機能を有しており、図1に示すように、変形部11と、除去部12と、特徴取得部13と、特徴付与部14とを有している。処理部10の各部の詳細については、次の欄で説明する。
 表示部17は、液晶ディスプレイ又は有機EL(Electro-Luminescence)ディスプレイを構成する。表示部17は、上述の通り、情報端末に設けられている。表示部17は、タッチパネル式のディスプレイでもよい。表示部17は、第1画像データD11及び第2画像データD12に関する情報を表示(出力)する。表示部17は、第1画像データD11及び第2画像データD12以外にも、学習用データの生成に関連する種々の情報を表示する。
 通信部16は、1又は複数台のラインセンサカメラ6と直接的に、或いは生産管理システムの機能を有した別サーバ等を介して間接的に通信するための通信インタフェースである。通信部16の機能は、処理部10と同じサーバにあることを想定するが、例えば情報端末に設けられてもよい。通信部16は、ラインセンサカメラ6から、オリジナル学習用データである第1画像データD11を受信する。
 第1画像データD11は、上述の通り、一例として距離画像データであり、オブジェクト4を示す画素領域R1を含む。ただし、第1画像データD11は、輝度画像データでもよい。上述の通り、オブジェクト4は、溶接材B13を用いて第1金属板B11及び第2金属板B12を溶接した際に、第1金属板B11及び第2金属板B12の境目B14に形成されるビードB10である。すなわち、第1画像データD11は、ラインセンサカメラ6の距離画像センサで撮像された、ビードB10を示す画素領域R1を含むデータである。
 ラインセンサカメラ6で撮像されたオブジェクト4に関する大量の画像データの中からの、データ拡張処理を適用する対象となる第1画像データD11の選別は、例えば、ユーザからの指示に応じて行われる。評価システム100は、選別に関する指示を受け付けるユーザインタフェース(操作部18でもよい)を備えることが好ましい。
 操作部18は、マウス、キーボード、及びポインティングデバイス等を含む。操作部18は、上述の通り、例えばユーザが使用する情報端末に設けられている。表示部17が、情報端末のタッチパネル式のディスプレイである場合、操作部18の機能を兼ねてもよい。
 学習システム2は、データ作成システム1で作成された複数の画像データD1(第2画像データD12を複数含む)を含む学習用データセットを用いて、学習済みモデルM1を生成する。学習用データセットは、複数の画像データD1に対して「良品」又は「不良品」、さらに不良品の場合には不良の種類及び不良の位置を示すラベルを付与することで生成される。不良の種類は、アンダーカット、ピット、又はスパッタ等である。ラベルの付与に関する作業は、ユーザによって操作部18等のユーザインタフェースを介して評価システム100に対して行われる。一変形例において、ラベルの付与に関する作業は、画像データD1に対してラベルを付与するための機能を有する学習済みモデルによって、行われてもよい。学習システム2は、学習用データセットを用いて、オブジェクト4(ビードB10)の状態(良状態、不良状態、不良の種類、及び不良の位置等)を機械学習することにより、学習済みモデルM1を生成する。
 学習システム2は、新たに取得した学習用データを含む学習用データセットを用いて再学習を行うことで、学習済みモデルM1の性能の向上を図ってよい。例えばオブジェクト4(ビードB10)に新しい種類の不良が見つかれば、学習システム2に、新しい不良に関する再学習を行わせることも可能である。
 推定システム3は、学習システム2で生成された学習済みモデルM1を用いて、認識対象となるオブジェクト4における特定状態(良状態、不良状態、不良の種類、不良の位置)に関する推定を行う。推定システム3は、1又は複数台のラインセンサカメラ6と直接的に、或いは生産管理システムの機能を有した別サーバ等を介して間接的に通信可能に構成される。推定システム3は、実際に溶接工程を終えて形成されたビードB10がラインセンサカメラ6で撮像された認識対象画像データD3を受信する。
 推定システム3は、学習済みモデルM1を用いて、認識対象画像データD3に写るオブジェクト4が「良品」又は「不良品」のどちらであるか、さらに不良品の場合、どの種類の不良であるか、不良がどの位置にあるかを推定する。推定システム3は、認識対象画像データD3に対する認識結果(推定結果)を、ユーザが利用する情報端末、又は生産管理システム等に出力する。ユーザは、情報端末を通じて、推定結果を確認できる。また生産管理システムが、推定結果を取得して「不良品」と推定された溶接部品については、次の工程に搬送される前に、破棄するように生産設備を制御してもよい。
 (2.2)データ拡張処理
 処理部10は、データ拡張処理として「特徴抽出処理」、「オブジェクト抽出処理」、「除去処理」、「変形処理」、及び「特徴付与処理」を実行する機能を有している。具体的には、処理部10は、図1に示すように、変形部11と、除去部12と、特徴取得部13と、特徴付与部14と、特徴抽出部15とを有している。
 特徴取得部13は、第2特徴X2を取得するように構成される。ここでは一例として、第2特徴X2は、第1画像データD11に存在する線状の第1特徴X1を含む。特徴取得部13は、第2特徴X2として、第1画像データD11から第1特徴X1を取得する。第1特徴X1は、特徴抽出部15により抽出される(「特徴抽出処理」の実行)。つまり、特徴取得部13は、特徴抽出部15により第1画像データD11から抽出された第1特徴X1を、第2特徴X2として取得する。
 本実施形態では、線状の第1特徴X1は、直線状の特徴X11を含む。上述の通り、隣り合う2つのスキャンライン間の境界に関する特徴である直線状のスジ7が、直線状の特徴X11に相当する。つまり、直線状の特徴X11は、オブジェクト4を撮像したラインセンサカメラ6に依存して第1画像データD11上における複数のスキャンライン間の境界(スジ7)に関する特徴である。図2及び図3Aでは、第1金属板B11及び第2金属板B12は、X軸(横方向)に沿って並んでいて、ビードB10は、Y軸(縦方向)に沿って長尺に形成されている。図3Aは、図2のビードB10と複数の直線状のスジ7を模式的に図示したものであり、複数の直線状のスジ7が、X軸に沿って延びている。つまり、本実施形態では一例として、第1画像データD11は、複数の線状の第1特徴X1を含み、特に複数の直線状の特徴X11を含む。複数の線状の第1特徴X1は、互いに線形性について相関がある。ここでは、複数の複数の線状の第1特徴X1は、互いに略平行な線形性を有する。
 以下、特徴抽出部15による特徴抽出処理の一例について、具体的に説明する。
 特徴抽出部15は、例えば、線状の第1特徴X1を特定するために、ユーザから直線状の特徴X11に関する特徴情報を取得する。ユーザは、操作部18等を介して特徴情報をデータ作成システム1に入力する。
 具体的には、ユーザは、例えば、表示部17により画面表示される第1画像データD11を目視で確認し、スキャンラインに起因して発生している多数の直線状のスジ7の方向及び位置等を特定する。ユーザは、操作部18を用いて、スジ7の方向(例えばX軸に対する傾き等)を指定するための操作入力を実行する。すなわち、特徴情報は、スジ7の方向(この場合、X軸に沿った方向)を指定する情報を含む。特徴情報は、スジ7の線形を表す関数データを含んでもよい。或いは特徴情報は、1又は複数のスジ7の画素領域の位置座標を直接指定する情報を含んでもよい。スジ7の直接指定を行う場合の一具体例では、まず、スジ7に含まれる2点を、ユーザが、マウスポインタで特定してマウスをクリックすることで指定する。特徴抽出部15は、指定された2点を通る直線を算出し、算出した直線を第1画像データD11に重畳させる。表示部17は、直線が重畳された第1画像データD11と、終了ボタンとを、表示する。ユーザは、表示された直線を確認し、問題がなければ、マウスポインタで終了ボタン選択してマウスをクリックする。特徴抽出部15は、算出した直線を示す情報を、特徴情報として取得する。特徴抽出部15は、特徴情報を処理部10のメモリ等に記憶する。特徴抽出部15は、例えば、スジ7を特定するための情報を処理部10のメモリ等に記憶し、その情報を用いて、第1画像データD11から特徴情報を自動的に抽出する機能を有してもよい。
 特徴抽出部15は、特徴情報に基づき、第1画像データD11におけるスキャンラインごとの撮像対象の高さ(画素値)の差、言い換えると撮像対象から距離画像センサまでの距離の差に関する情報を取得(抽出)する。撮像対象は、オブジェクト4、又はオブジェクト4の周辺の第1及び第2金属板B11、B12に相当する。ここでいう「高さ」とは、X-Y平面に直交する方向の成分であり、オブジェクト4の高さは、例えば、オブジェクト4が設置される設置面(仮想面でもよい)からの高さである。
 つまり、あるスキャンラインと次のスキャンラインとで、実際には例えば略同じ高さであっても、多軸ロボットのブレ等に起因して僅かな高さ(画素値)の差が生じて、結果、スジ7(第1特徴X1)が現れている。言い換えると、直線状の特徴X11は、ラインセンサカメラ6からオブジェクト4までの距離の差に応じて発生し得る複数のスキャンライン間の高さの差に対応する画素値の差に基づく特徴である。特徴抽出部15は、各スキャンラインの高さに関する情報(高さの平均値や分散値でもよい)を取得し、処理部10のメモリ等に記憶する。以下、スキャンラインの高さに関する情報を、単に「スキャンライン情報」と呼ぶことがある。スキャンライン情報は、着目するスキャンラインの各点(画素)に対して、スキャンラインとは異なる方向に隣接する画素の値との差の集合の情報でもよい。またはスキャンライン情報は、上記の差の平均値と分散値でもよい。
 変形部11は、オブジェクト4(ビードB10)を示す画素領域R1を含む第1画像データD11から、オブジェクト4に関する変形を施した第2画像データD12を生成するように構成される。つまり、変形部11は、第1画像データD11のビードB10をアフィン変換又は射影変換等の画像処理により変形して(「変形処理」の実行)、第2画像データD12を生成する。オブジェクト4に関する変形は、オブジェクト4の回転、反転、平行移動、拡大、及び縮小からなる群から選択される少なくとも1つを含み得る。ここでは一例として、「オブジェクト4に関する変形」は、オブジェクト4の回転を含む。
 変形部11は、変形処理を実行する前に、まず、第1画像データD11において、画素値の差に基づき、オブジェクト4の画素領域に関する情報を抽出する(「オブジェクト抽出処理」の実行)。変形部11は、例えばエッジ検出処理等の画像処理によってビードB10の画素領域を抽出する。図3Bでは、説明の便宜上、変形部11が抽出したビードB10の画素領域をドットハッチングで示す。オブジェクト4の画素領域は、ユーザからの操作部18による指定に応じて設定されてもよい。
 変形部11は、オブジェクト4の画素領域を抽出すると、例えば、X-Y平面上におけるオブジェクト4の中心E1(図3C及び図4A参照:重心でもよい)を通り、かつX-Y平面と直交する回転軸を中心に時計回りに90度回転させる(図4A参照)。ただし、回転軸の位置、回転方向及び回転角度は、ユーザからの操作部18による指定に応じて設定変更可能とする。すなわち、回転方向は、時計回りに限定されず、反時計回りでもよいし、回転角度も90度に限定されず、30度、60度、又は180度等でもよい。
 変形部11は、変形処理として、オブジェクト4の回転に加えて、別の変形(拡大、縮小、又は反転等)を更に行って第2画像データD12を作成してもよい。
 除去部12は、第1画像データD11に存在する線状の第1特徴X1を除去する(「除去処理」の実行)。ここでは一例として、除去部12は、第1画像データD11から第1特徴X1を除去する。除去部12は、第1画像データD11から、特徴抽出部15によって抽出された第1特徴X1を除去する。つまり、除去処理の実行後に、上述した変形処理が実行される。変形部11は、第1特徴X1が除去された第1画像データD11から、第2画像データD12を生成する。そのため、例えば変形後に第1特徴X1を除去する場合に比べて、第1特徴X1の特定が容易となる。
 除去処理の一例について具体的に説明する。除去部12は、特徴抽出部15(特徴抽出処理)で抽出したスキャンライン情報に基づき、第1画像データD11において各スキャンラインの高さが小さくなる方向(奥行き方向)に各スキャンラインを平行移動させる。つまり、除去部12は、スキャンライン間の高さ(画素値)を揃えて高さの差をなくす画像処理を行う。その結果、スキャンライン間の境界に関する特徴(第1特徴X1、つまりスジ7)が消えることになる(図3C参照)。
 特徴付与部14は、第2特徴X2を第2画像データD12に付与する(「特徴付与処理」の実行)。上述の通り、第2特徴X2は、第1画像データD11に存在する線状の第1特徴X1を含む。特徴付与部14は、特徴抽出部15が第1画像データD11から抽出し特徴取得部13が取得した第1特徴X1を、第2画像データD12に付与する。つまり、除去処理及び変形処理の実行後に、特徴付与処理が実行される。
 特徴付与処理の一例について具体的に説明する。特徴付与部14は、特徴抽出部15(特徴抽出処理)で抽出したスキャンラインの高さ(画素値)に関する情報に基づき、回転後のオブジェクト4を含む第2画像データD12に、X軸に沿った複数のスジ7(第1特徴X1)を付与する(図4B参照)。ここで本実施形態では、回転前と回転後とでオブジェクト4を含む画素領域R1のY軸の方向における寸法が変化している。すなわち、図3A~図4Bに示すように、回転後の画素領域R1のY軸の方向における寸法が、回転前の画素領域R1のY軸の方向における寸法よりも小さい。このような場合、特徴付与部14は、例えば、回転前の画素領域R1のY軸の方向における中央領域(図3Bの一点鎖線F1参照)のスキャンライン情報を用いる。図3Bの一点鎖線F1で囲まれた領域は、回転後の画素領域R1と略等しいサイズである。特徴付与部14は、上記中央領域内の複数のスキャンラインの高さ(画素値)を、回転後の画素領域R1におけるX軸の両端間にわたって再現することで、X軸に沿った方向のスジ7(第1特徴X1)が再現され得る。
 結果的に、特徴付与処理が実行された図4Bに示す第2画像データD12は、あたかもX軸の方向に長尺のオブジェクト4を実際にX軸に沿ってスキャニングして撮像された画像データのように作成される。
 第2画像データD12に付与されるラベル(認識対象となるオブジェクト4における特定状態)としては、予め第1画像データD11に付与されているラベル(オブジェクト4における特定状態)と同じものが用いられ得る。例えば、第1画像データD11のラベル(オブジェクト4における特定状態)が「良品」である場合には、第2画像データD12のラベル(オブジェクト4における特定状態)も良品となり得る。また、第1画像データD11の特定の領域(オブジェクト4を示す画素領域)に対して特定状態が割り当てられている場合には、第2画像データD12における変形後の特定の領域に対しても同じ特定状態が割り当てられ得る。例えば、第1画像データ11の特定の領域の特定状態(不良の種類)がスパッタである場合には、第2画像データ12における変形後の特定の領域の特定状態もスパッタとして扱い得る。
 ところで、回転後の画素領域R1のY軸の方向における寸法が、回転前の画素領域R1のY軸の方向における寸法よりも大きい場合には、第1画像データD11から抽出したスキャンライン情報では不足する領域が発生し得る。その場合、特徴付与部14は、抽出したスキャンライン情報に基づき、例えば特定のスキャンラインの高さ(画素値)を繰り返し用いることで不足する領域の画素を補間してもよい。
 (2.3)動作
 以下、データ作成システム1の動作の一例について図5を参照しながら説明する。ただし、以下の動作の順序は単なる一例であり、特に限定されない。
 データ作成システム1の処理部10は、データ拡張処理を実行するためにオリジナル学習用データである第1画像データD11を取得する(S1)。第1画像データD11は、例えば、「不良(状態)」に該当するビードB10が撮像されたデータである。
 処理部10は、特徴抽出処理を実行して、第2特徴X2として、第1画像データD11から、第2特徴X2としての第1特徴X1(スジ7)に関するスキャンライン情報を取得(抽出)する(S2)。
 また処理部10は、オブジェクト抽出処理を実行して、第1画像データD11からオブジェクト4の画素領域に関する情報を取得(抽出)する(S3)。
 次に処理部10は、除去処理を実行して、第1画像データD11から第1特徴X1を除去する(S4)。
 さらに処理部10は、変形処理を実行して、オブジェクト4の画素領域(ここではオブジェクト4と、第1及び第2金属板B11,B12とを含む画素領域R1)を時計周りに90度回転させた第2画像データを生成する(S5)。
 そして処理部10は、特徴付与処理を実行して、スキャンライン情報に基づき、変形後の第2画像データD12の画素領域R1に、第2特徴X2としての第1特徴X1(スジ7)を付与する(S6)。
 処理部10は、第2特徴X2が付与された第2画像データD12を出力する(S7)。第2画像データD12は、学習用データ(画像データD1)として、オリジナルの第1画像データD11と同じ「不良」のラベルが付与されて格納部に格納される。
 [利点]
 上述した通り、本実施形態に係るデータ作成システム1では、線状の第1特徴X1が画像データ(上記例では第1画像データD11)から除去される。そのため、オブジェクト4と共に変形が施されて線状の第1特徴X1の線形性が崩れる、つまり例えばX軸とは異なる方向(Y軸の方向)に沿ったスジ7に置き換わる可能性が低減される。その結果、本来、X軸に沿ってスキャニングされた画像データにも関わらず、X軸とは異なる方向に沿ったスジ7が存在するという、実際には起こり得ない画像データが作成されてしまう可能性が低減される。
 特に本実施形態に係るデータ作成システム1では、第1画像データD11とは別の方向からオブジェクト4を実際に撮像した画像データにより近い形で疑似的にデータ作成(例えばデータ拡張)を行うことができる。このような第2画像データD12を学習用データに用いて生成された学習済みモデルM1で、認識対象画像データD3におけるオブジェクト4の状態を推定すれば、線状の第1特徴X1の線形性の崩れに起因したオブジェクト4の状態の誤認識が発生しにくくなる。結果的に、オブジェクト4に関する認識性能の低下の抑制を図ることができる。
 また線状の第1特徴X1の除去により、その線形性の崩れを抑制しつつも、第2特徴X2を付与することで、多様な学習用データを用意できる。
 また本実施形態に係るデータ作成システム1では、第2特徴X2は、第1画像データD11に存在する線状の第1特徴X1を含む。そのため、例えば第2特徴X2を別の画像データから取得する場合に比べて、実際に存在し得る画像データにより近い形で、疑似的にデータ作成(例えばデータ拡張)を行うことができる。
 また本実施形態では、第1特徴X1は直線状の特徴X11を含み、直線状の特徴X11は、オブジェクト4を撮像したラインセンサカメラ6に依存して第1画像データD11上における複数のスキャンライン間の境界に関する特徴(スジ7)である。そのため、複数のスキャンライン間の境界に関する特徴の変形が原因で実際に存在し得る画像データからかけ離れてしまうことを抑制できる。
 (3)変形例
 上記実施形態は、本開示の様々な実施形態の一つに過ぎない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、上記実施形態に係るデータ作成システム1と同様の機能は、データ作成方法、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。
 以下、上記実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。以下では、上記実施形態を「基本例」と呼ぶこともある。
 本開示におけるデータ作成システム1は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示におけるデータ作成システム1としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
 また、データ作成システム1における複数の機能が、1つのハウジング内に集約されていることは必須の構成ではない。例えば、データ作成システム1の構成要素は、複数のハウジングに分散して設けられていてもよい。
 反対に、データ作成システム1における複数の機能が、1つのハウジング内に集約されてもよい。さらに、データ作成システム1の少なくとも一部の機能、例えば、データ作成システム1の一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。
 (3.1)変形例1
 以下、本開示における変形例1について、図6及び図7を参照しながら説明する。以下では基本例のデータ作成システム1と実質的に同じ構成要素については、同じ符号を付与して適宜にその説明を省略する場合がある。
 基本例では、線状の第1特徴X1に相当するスキャンライン間の境界に関する特徴(スジ7)がオリジナルの画像データ(第1画像データD11)に存在していた。本変形例では、オリジナルの画像データ(第4画像データD14:図7参照)に、スキャンラインによるスジ7が存在しない点で、基本例と相違する。
 具体的には、本変形例のデータ作成システム1Aは、図6に示すように、特徴取得部13Aと特徴付与部14Aと特徴抽出部15Aとを備える。特徴取得部13A、特徴付与部14A及び特徴抽出部15Aの機能は、処理部10に設けられている。また本変形例の処理部10では、基本例の処理部10と違って、変形部11及び除去部12の機能が省略されている。データ作成システム1Aでは、基本例と異なり、2つの画像データ(第3画像データD13及び第4画像データD14)を入力画像データとして取得する。
 特徴取得部13Aは、線状の特徴を取得する。ここでは一例として、線状の特徴は、オブジェクト4を撮像するラインセンサカメラ6に依存する複数のスキャンライン間の境界に関する特徴(第3特徴X3、スジ7)である。ここでは第3特徴X3は、第3画像データD13に存在する。第3特徴X3は、特徴抽出部15Aにより抽出される。特徴抽出部15Aは、入力された第3画像データD13から、第3特徴X3として、スキャンラインの高さ(画素値)に関する情報(スキャンライン情報)を抽出する。特徴取得部13Aは、特徴抽出部15Aにより抽出された第3特徴X3を、線状の特徴として取得する。
 第3画像データD13は、例えば、ラインセンサカメラ6で実際に撮像された画像データであり、オブジェクト4(基本例と同様にビードB10)を示す画素領域R1を含む。また第3画像データD13は、基本例のスジ7に関する第1特徴X1(直線状の特徴X11)に相当する複数の線状の特徴(第3特徴X3)を含む。
 第3画像データD13では、基本例の第1画像データD11と同様に、オブジェクト4の長手方向はY軸に沿っており、スキャンラインは、X軸に沿っている。したがって、スジ7(第3特徴X3)は、X軸に沿っている。
 一方、第4画像データD14は、例えば、オブジェクト4(基本例と同様にビードB10)及び母材(第1及び第2金属板B11,B12)が描画されたCG画像である。第4画像データD14は、実際に撮像された画像を部分的に嵌め込んで作成されてもよい。ただし、第4画像データD14は、上述の通り、スキャンラインによるスジ7が存在しないデータである。
 ここで第4画像データD14では、基本例の第2画像データD12と同様に、オブジェクト4の長手方向はX軸に沿っている。つまり、第4画像データD14は、スジ7(第3特徴X3)が無い点を除けば、第3画像データD13を時計回りに90度回転させたような画像データである。
 特徴付与部14Aは、オブジェクト4を示す画素領域R1を含む画像データ(第4画像データD14)に、線状の特徴(第3特徴X3)を付与する。特徴付与部14Aは、特徴取得部13Aで抽出したスキャンライン情報に基づき、第4画像データD14に、X軸に沿った複数のスジ7(第3特徴X3)を付与する。ここで第4画像データD14の画素領域R1のY軸の方向における寸法が、第3画像データD13の画素領域R1のY軸の方向における寸法よりも小さい。そこで、基本例と同様に、特徴付与部14Aは、例えば、第3画像データD13の画素領域R1のY軸の方向における中央領域のスキャンライン情報を用いる。特徴付与部14Aは、上記中央領域内の複数のスキャンラインの高さ(画素値)を、第4画像データD14の画素領域R1におけるX軸の両端間にわたって再現することで、X軸に沿った方向のスジ7(第3特徴X3)が再現され得る。
 本変形例によれば、複数のスキャンライン間の境界に関する線状の特徴(第3特徴X3)を画像データ(第4画像データD14)に付与する。そのため、基本例と同様に、実際に存在し得る画像データにより近い形で、疑似的にデータ作成(例えばデータ拡張)を行うことができる。結果的に、オブジェクト4に関する認識性能の低下の抑制を図ることができる。
 なお、特徴取得部13Aが取得し、特徴付与部14Aが追加する「スキャンライン情報」は、特徴抽出部15Aが抽出した第3特徴X3そのものに限られない。「スキャンライン情報」は、例えば、スキャンラインの高さの平均値と分散値でもよいし、着目するスキャンラインの各点(画素)に対して、スキャンラインとは異なる方向に隣接する画素の値との差の集合の情報でもよい。または「スキャンライン情報」は、上記の差の平均値と分散値でもよい。「スキャンライン情報」としてスキャンラインの高さの平均値の差を再現した場合には、スキャンラインを追加した部分の窪み、出っ張りが平坦になるのに対し、スキャンライン部分の窪み、または、出っ張りの中にも微妙な凹凸が再現される。画像データが輝度画像データの場合には、スキャンライン内での色の微妙な変化を再現することが出来る。
 本変形例のデータ作成システム1Aと同様の機能は、データ作成方法、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。すなわち、本変形例のデータ作成方法は、オブジェクト4に関する学習済みモデルM1を生成するための学習用データとして用いられる画像データ(第4画像データD14)を作成するデータ作成方法である。データ作成方法は、特徴取得ステップと、特徴付与ステップと、を含む。特徴取得ステップでは、線状の特徴(例えば第3特徴X3)を取得する。特徴付与ステップでは、オブジェクト4を示す画素領域R1を含む画像データ(第4画像データD14)に、線状の特徴(第3特徴X3)を付与する。
 (3.2)変形例2
 以下、本開示における変形例2について、図8~図9Bを参照しながら説明する。以下では基本例のデータ作成システム1と実質的に同じ構成要素については、同じ符号を付与して適宜にその説明を省略する場合がある。
 基本例では、変形部11によって施されるオブジェクト4に関する変形が、回転であった。しかし、オブジェクト4に関する変形は、回転に限定されない。オブジェクト4に関する変形は、オブジェクト4の形状(輪郭等)の変形を含んでもよい。具体的には、オブジェクト4に関する変形が、回転の代わりに又は回転に加えて、例えばオブジェクト4の輪郭等の形状の変形(平行移動、拡大、及び縮小等の少なくとも1つ)を含んでもよい。
 本変形例では、オブジェクト4に関する変形が、以下に説明する通り、オブジェクト4の形状の変形である。以下では、変形部11の変形処理にのみ着目して説明する。
 例えば、変形部11は、図8に示すように、第1画像データD11上に複数の仮想線L1(直線)と複数の基準点P1とを設定し、その設定後に、以下の2種類の変形(第1変形及び第2変形)を実行するように構成される。つまり、変形部11は、仮想線(後述する第2線L12)上に複数の基準点P1を設定し、複数の基準点P1の少なくとも1つの基準点P1を移動させることにより、オブジェクト4の形状の変形を行う。
 複数の仮想線L1は、各々がY軸に平行な一対の第1線L11と、各々がX軸に平行な8本の第2線L12と、を含む。変形部11は、8本の第2線L12を、Y軸に沿って等間隔に並ぶように設定する。ただし、仮想線L1の本数は、特に限定されない。Y軸の方向に隣り合う2本の第2線L12の間隔は、記憶部(例えば処理部10のメモリ)に予め設定されてもよいし、ユーザからの操作部18による指定に応じて設定変更されてもよい。間隔の設定変更に応じて、第2線L12の本数も変更されてよい。以下では、説明の便宜上、8本の第2線L12を、それぞれ、図8の上から順に第2線L121~128と呼ぶことがある。
 本変形例の変形部11は、直線状の特徴X11に基づき、スジ7の方向(この場合、X軸に沿った方向)に沿うように8本の第2線L12の向きを設定する。
 ここでは、一対の第1線L11と、8本の第2線L12のうちY軸の方向の両端にある2本の第2線L121、L128とで、ビードB10の周囲を囲むように設定する。以下、一対の第1線L11と上記2本の第2線L121、L128とからなる矩形枠をバウンディングボックスBX1(図8参照)と呼ぶことがある。変形部11は、画素値の差に基づき、ビードB10の輪郭形状(画素領域)を特定する。変形部11は、例えばエッジ検出処理等の画像処理によってビードB10の画素領域を特定する。そして、変形部11は、第2線L12がスジ7の方向に沿うように、かつビードB10の全体を囲むようにバウンディングボックスBX1を規定する(図8参照)。
 複数の基準点P1は、一対の第1線L11と、8本の第2線L12とがそれぞれ交わる交点に設定される合計16つの第1点P11と、8本の第2線L12と、ビードB10の輪郭とが交わる交点に設定される合計16つの第2点P12とを含む。ただし、第2線L121は、ビードB10の輪郭との交点が存在しないため、第2線L121の第2点P12は、第2線L122の第2点P12と、X軸の方向において同じ位置に設定される。同様に、第2線L128は、ビードB10の輪郭との交点が存在しないため、第2線L128の第2点P12は、第2線L127の第2点P12と、X軸の方向において同じ位置に設定される。
 本変形例では一例として、変形部11は、規定したバウンディングボックスBX1からビードB10の輪郭がはみ出ないように変形処理を実行する。
 第1変形は、図9Aに示すように、隣り合う2つの第2線L12間の距離が長く、或いは短くなるような、拡大/縮小変形である。図9Aの例では、変形部11は、第2線L121、L122間の距離を、図8よりも長くする、つまり第2線L121、L122間の範囲内のオブジェクト4の領域がY軸に沿って拡大するように変形する。変形部11は、オブジェクト4の領域の拡大(引き延ばし)の際に線形補間等で適宜に画素の補間を行う。この場合、第2線L122は、当該線上の4つの基準点P1と共にY軸の正の側(下方)へ移動する。また図9Aの例では、変形部11は、第2線L122、L123間の距離を、図8よりも短くする、つまり第2線L122、L123間の範囲内のオブジェクト4の領域がY軸に沿って縮小するように変形する。この場合、第2線L123は、当該線上の4つの基準点P1と共にY軸の負の側(上方)へ移動する。
 他の第2線L12について、図9Aの例では、第2線L124は、当該線上の4つの基準点P1と共にY軸の負の側(上方)へ移動する。第2線L125、L126、及びL127は、各線上の4つの基準点P1と共にY軸の正の側(下方)へ移動する。
 どの程度の拡大/縮小を実行するかを指定するパラメータについては、記憶部(例えば処理部10のメモリ)に予め設定されてもよいし、処理部10が自動的にランダムで設定してもよいし、ユーザからの操作部18による指定に応じて設定されてもよい。
 第2変形は、図9Bに示すように、各第2線L12上にある4つの基準点P1のうち、少なくとも1つの基準点P1(ここでは一例としてビードB10の輪郭との交点に設定される2つの第2点P12)を当該第2線L12上で移動させるような変形である。つまり、変形部11は、オブジェクト4の形状を、線状の第1特徴X1(ここでは直線状の特徴X11)に沿った1つ以上の仮想線(第2線L12)に沿って変形した第2画像データD12を生成する。第2変形は、例えば、一対の第1線L11と8つの第2線L12とで構成される7つの矩形領域に対して二次元射影変換を行って台形状に変形する。
 図9Bの例では、変形部11は、第2線L121、L122の各々の2つの第2点P12が互いに近づく方向に移動する、つまり当該2つの第2点P12間の範囲内のオブジェクト4の領域がX軸に沿って縮小するように変形する。
 また図9Bの例では、変形部11は、第2線L123の2つの第2点P12がいずれもX軸の負の側に移動する、つまり当該2つの第2点P12間の範囲内のオブジェクト4の領域がX軸の負の側に移動するように変形する。
 また図9Bの例では、変形部11は、第2線L124、L125の各々の2つの第2点P12が互いに離れる方向に移動する、つまり当該2つの第2点P12間の範囲内のオブジェクト4の領域がX軸に沿って拡大するように変形する。
 さらに図9Bの例では、変形部11は、第2線L126~L128の各々の2つの第2点P12がいずれもX軸の正の側に移動する、つまり当該2つの第2点P12間の範囲内のオブジェクト4の領域がX軸の正の側に移動するように変形する。
 各基準点P1(第2点P12)の、第2線L12上における移動量は、記憶部(例えば処理部10のメモリ)に予め設定されてもよいし、処理部10が自動的にランダムで設定してもよいし、ユーザからの操作部18による指定に応じて設定されてもよい。移動量には、上限値(例えば第2線L12の長さの50%等)が設定されていることが望ましい。
 本変形例では、変形部11は、仮想線(第2線L12)上に設定された複数の基準点P1の並び順を維持しながら、少なくとも1つの基準点P1を移動させる。つまり、変形部11は、例えば、ある第2線L12上の2つの第2点P12の一方が、他方を超えて反対側に移動したり、或いは第1点P11を超えて反対側に移動したりすることがないように基準点P1を移動させる。複数の基準点P1の並び順を維持して変形を行うことで、第2画像データD12が、実際に存在し得る画像データからかけ離れてしまうことを抑制できる。
 ここでは変形部11は、第1変形及び第2変形の両方を行うことを想定する。ただし、変形部11は、第1変形及び第2変形の何れか一方のみを行ってもよい。また、変形部11は、第1変形及び第2変形をこの順番に行うことを想定するが、処理の順番は特に限定されず、先に第2変形を行ってから第1変形を行ってもよい。データ作成システム1は、操作部18等を通じて、第1変形及び第2変形のいずれを実行させるか、及び、第1変形及び第2変形の両方を実行させる場合、その処理の順番を設定できることが好ましい。
 変形部11は、第1変形及び第2変形の少なくとも一方に加えて、基本例のような回転、又は反転等を行って第2画像データD12を作成してもよい。
 なお、上記の例では、複数の第2点P12は、各第2線L12とビードB10の輪郭との交点に設定されている。しかし、複数の第2点P12は、各第2線L12上において所定の間隔で設定されてもよい。所定の間隔は、ユーザ側で指定できてもよい。
 (3.3)変形例3
 データ作成システム1において、特徴抽出部15を備える処理装置と、特徴付与部14を備える処理装置とは、異なる装置であってもよい。例えば、データ作成システム1において、特徴抽出部15を備える処理装置(以下、「第1処理装置」)110と、それ以外の処理を行う処理装置(以下、「第2処理装置」)120とが、異なる装置であってもよい。
 例えば、図10に示すように、第1処理装置110は、処理部(以下、「第1処理部」)101と、通信部(以下、「第1通信部」)161と、表示部17と、操作部18と、を備える。第1処理装置110の第1処理部101は、特徴抽出部15を備えている。
 第1通信部161は、ラインセンサカメラ6から、オリジナル学習用データである第1画像データD11を受信する。
 特徴抽出部15は、第1画像データD11から、線状の第1特徴X1を抽出する。
 第1通信部161(送信部)は、特徴抽出部15で抽出された第1特徴X1を示す情報D20を、第2処理装置120へ出力(送信)する。
 第2処理装置120は、処理部(以下、「第2処理部」)102と、通信部(以下、「第2通信部」)162と、を備える。第2処理装置120の第2処理部102は、変形部11と、除去部12と、特徴取得部13と、特徴付与部14と、を備えている。
 第2通信部162は、ラインセンサカメラ6から、第1画像データD11を受信する。
 第2通信部162(受信部)は、第1特徴X1を示す情報D20を、受信する。
 特徴取得部13は、情報D20に含まれる第1特徴X1を、第2特徴X2として取得する。つまり、特徴取得部13は、第2特徴X2として、第1処理装置110の特徴抽出部15で抽出され第1処理装置110から送信される第1特徴X1を、取得する。
 除去部12は、第1画像データD11に存在する線状の第1特徴X1を除去する。変形部11は第1画像データD11から、オブジェクト4に関する変形を施した第2画像データD12を生成する。特徴付与部14は、特徴取得部13で取得された第2特徴X2を、第2画像データD12に付与する。
 第2処理装置120は、例えば第2通信部162によって、生成した画像データ(第2特徴X2が付与された第2画像データD12)を第1処理装置110へ送信してもよい。その場合、ユーザは、受け取った画像データを用いて、学習システム2により学習済みモデルM1を生成してもよい。この学習済みモデルM1は、第1画像データD11から第1特徴X1を除去しオブジェクト4に関する変形を施した第2画像データD12に第2特徴X2を付与した画像データに対して、オブジェクト4の特定状態に関する推定について第1画像データD11と同等の推定結果を出力することとなる。
 第2処理装置120は、生成した画像データを、学習システムを備える外部のサーバへ送信してもよい。外部のサーバの学習システムは、画像データ(第2特徴X2が付与された第2画像データD12)としての学習用データを含む学習用データセットを用いて、学習済みモデルM1を生成する。この学習済みモデルM1は、第1画像データD11から第1特徴X1を除去しオブジェクト4に関する変形を施した第2画像データD12に第2特徴X2を付与した画像データに対して、オブジェクト4の特定状態に関する推定について第1画像データD11と同等の推定結果を出力することとなる。ユーザは、外部のサーバから、生成された学習済みモデルM1を受け取ってもよい。
 第2画像データD12には、第1画像データD11と同じラベルが付与される。そのため、十分に学習を行うことで、学習済みモデルM1は、第2画像データD12に第2特徴を付与した画像データに対して、オブジェクト4の特定状態に関する推定について第1画像データD11と同等の推定結果を出力するモデルとすることができる。
 (3.4)その他の変形例
 以下、その他の変形例について列記する。
 本開示でいう「画像データ」は、イメージセンサで取得する画像データに限らず、例えばCG画像等の二次元データであってもよいし、或いは基本例で説明したように距離画像センサで取得した一次元データを並べて構築した二次元データであってもよい。また「画像データ」は、三次元以上のデータであってもよい。また本開示における「画素」は、実際にイメージセンサで取得した画像の画素に限らず、二次元データの各要素であってもよい。
 基本例では、第1画像データD11は、オブジェクト4(ビードB10)を、多軸ロボットの送り制御によってラインセンサカメラ6にスキャニングを行わせて撮像された画像データである。しかし、第1画像データD11は、例えば、オブジェクト4をステージ(検査台)上に載せ、ステージ側を移動させて撮像装置でスキャニングを行わせて撮像された画像データでもよい。
 基本例では、第1画像データD11は、実際に撮像装置(ラインセンサカメラ6)により撮像された画像データである。しかし、第1画像データD11は、スキャンラインによるスジ7を模式的に描画したCG画像データでもよい。
 基本例では、直線状の特徴X11は、スキャンライン間の境界に関する特徴(スジ7)であった。直線状の特徴X11は、例えば、金属板の表面についている線状の傷であってもよい。
 基本例では、直線状の特徴X11は、1本1本の直線(スジ7)であった。しかし、直線状の特徴X11は、複数の直線から構成された多角形(三角形、四角形等)、又は多数の多角形からなる模様でもよい。
 基本例では、線状の第1特徴X1は、直線状の特徴X11であった。しかし、線状の第1特徴X1は、曲線状の特徴でもよく、1本1本の曲線でもよいし、さらに円形、楕円形、又は多数の円形や楕円形からなる模様でもよい。その場合には、特徴取得部13は、同心円の中心位置等の情報を取得する。同心円の中心位置等は、操作部18等によるユーザからの入力によって設定されてもよいし、或いは処理部10が、撮影した画像データに対してハフ変換によって円を自動的に抽出してもよい。また線状の第1特徴X1は、所定の幅以上のある帯状の特徴であってもよい。
 また線状の第1特徴X1は、直線状の特徴と曲線状の特徴とが混在した模様でもよい。
 直線状あるいは曲線状の特徴としての模様の直接指定を行う場合の一具体例について説明すると、まずユーザは、模様に含まれる2点を、マウスポインタで特定してマウスをクリックすることで、指定する。特徴取得部13は、指定された2点を通る直線あるいは曲線を算出し、算出した直線又は曲線を第1画像データD11に重畳させる。表示部17は、直線あるいは曲線が重畳された第1画像データD11と、終了ボタンとを、表示する。ユーザは、表示された直線あるいは曲線を確認し、問題がなければ、マウスポインタで終了ボタンを選択してマウスをクリックする。特徴取得部13は、算出した直線あるいは曲線を示す情報を、特徴情報として取得する。一方、表示された直線あるいは曲線と、模様との間に差異がある場合、ユーザは、模様に含まれる3点目を更に指定する。特徴取得部13は、指定された3点を通る直線あるいは曲線を算出し、算出した直線あるいは曲線を第1画像データD11に重畳させる。表示部17は、直線あるいは曲線が重畳された第1画像データD11と、終了ボタンとを、表示する。ユーザは、表示された直線あるいは曲線を確認し、問題がなければ終了ボタンを選択してマウスをクリックする。特徴取得部13は、算出した直線あるいは直線を示す情報を、特徴情報として取得する。算出した直線あるいは曲線と模様との間に差異がある場合には、以下、同様にして、ユーザは模様に含まれる4点目、5点目・・・N点目の指定を行い、特徴取得部13は直線あるいは曲線をそれぞれ算出する。なお、指定したN点を通る直線あるいは曲線の算出には、N次方程式、ベジエ曲線、又はスプライン曲線等を用いてもよい。また、ユーザが模様に含まれる1点のみを指定した段階で、表示部17がその1点を通る直線あるいは曲線を表示する構成としてもよい。特徴取得部13は、特徴情報を処理部10のメモリ等に記憶する。特徴取得部13は、例えば、模様を特定するための情報を処理部10のメモリ等に記憶し、その情報を用いて、第1画像データD11から特徴情報を自動的に抽出する機能を有してもよい。
 基本例では、認識対象となるオブジェクト4が溶接のビードB10であった。しかし、オブジェクト4は、ビードB10に限定されない。学習済みモデルM1は、溶接が正しく行われたか否かを検査する溶接外観検査のために用いられることに限定されない。
 基本例では、第2特徴X2が、第1画像データD11に存在する線状の第1特徴X1であった。しかし、第2特徴X2は、第1画像データD11とは別の画像データ(例えば、変形例1の第3画像データD13)に存在する線状の第3特徴X3を含んでもよい。この場合、特徴取得部13は、第2特徴X2として、当該別の画像データから第3特徴X3を取得する。例えば、特徴付与部14は、第2特徴X2として、第1画像データD11に存在する第1特徴X1と、別の画像データから第3特徴X3との両方を、第2画像データD12に付与してもよい。この場合、実際に存在し得る画像データに更に近い形で、多様なデータ作成(例えばデータ拡張)を行うことができる。
 第2特徴X2は、線状以外の特徴を含んでもよく、例えば、アンダーカット、ピット、又はスパッタ等不良領域を示す特徴を含んでもよい。
 基本例では、第1画像データD11が、距離画像センサで撮像されたものであり、スキャンラインの(X-Y平面と直交する方向の)高さに対応した画素値の情報を含んでいた。したがって、基本例では、特徴取得部13は、スキャンラインの高さに関する情報(スキャンライン情報)を、第1画像データD11から「画素値」として取得していた。しかし、特徴取得部13は、スキャンライン情報を第1画像データD11から取得すること(すなわち特徴抽出部15から取得すること)に限定されない。特徴取得部13は、スキャンライン情報の少なくとも一部の情報として、オブジェクト4を搬送する搬送装置に設置された位置センサ、ラインセンサカメラ6、多軸ロボット、又は多軸ロボット等を制御する制御装置から各種データを取得してもよい。特徴取得部13は、各種データを用いてスキャンラインの高さを演算してもよい。
 ところで、スキャンラインによるスジ7は、ラインセンサカメラ6又は多軸ロボット等の種類によって発生の態様が変化し得る。そのため、スキャンライン情報の一部の情報が、ラインセンサカメラ6及び多軸ロボット等を所有するユーザにとって既知の情報である場合もある。この場合、ユーザは、上記既知の情報を、操作部18等を介してデータ作成システム1に予め設定できてもよい。データ作成システム1は、上記既知の情報を処理部10のメモリ等に記憶する。特徴取得部13は、上記既知の情報をスキャンライン情報の少なくとも一部の情報として取得してもよい。
 またデータ作成システム1は、一度第2画像データD12を作成した際に取得したスキャンライン情報を記憶し、次回以降に第2画像データD12を作成する際に、その情報を上記既知の情報として利用してもよい。例えば、ある種類の不良状態を示す第1画像データD11から第2画像データD12の作成時に取得したスキャンライン情報が、別の種類の不良状態を示す第1画像データD11から第2画像データD12を作成する場合に再利用されてもよい。
 基本例では、除去処理、変形処理、及び特徴付与処理が、この順で実行されていた。しかし、除去処理と変形処理との順番を逆にして、変形処理、除去処理、及び特徴付与処理の順で実行されてもよい。つまり、除去部12は、第2画像データD12から変形後の第1特徴X1を除去してもよい。この場合、特徴付与部14は、第1特徴X1が除去された第2画像データD12に、特徴取得部13が第1画像データD11から取得した第1特徴X1を付与する。基本例で言えば、図3Bに示す第1画像データD11を90度回転した場合、多数の直線状のスジ7の方向は、X軸に沿った方向から、Y軸に沿った方向へ切り替わった状態で、第2画像データD12が作成される。例えば、ユーザは、表示部17により画面表示される第2画像データD12を目視で確認し、変形後(回転後)の多数の直線状のスジ7の方向及び位置等を特定する。ユーザは、操作部18を用いて、スジ7の方向を指定するための操作入力を実行する。その結果、変形後(回転後)の第1特徴X1に関する特徴情報がデータ作成システム1に入力されて、除去部12は、スキャンライン情報に基づき、第2画像データD12から変形後の第1特徴X1を除去する。
 このように変形処理の後に除去処理が実行されることで、変形処理前に第1特徴X1を除去する場合に比べて、変形後の第1特徴X1を含んだ第2画像データD12を利用しやすくなる。例えば、ユーザは、変形処理により第1特徴X1がどのような態様に変化したのかを確認しやすくなる。
 基本例では、除去部12は、第1画像データD11においてスキャンライン間の高さ(画素値)を揃えて高さの差をなくす画像処理を行うことで、スキャンライン間の境界に関する特徴(第1特徴X1、つまりスジ7)を消去していた。しかし、例えば、除去部12は、スキャンライン間の境界の画素値を周辺の画素値の平均値に置き換えることで、スジ7を消去してもよい。
 評価システム100は、データ作成システム1の一部の構成のみを備えていてもよい。評価システム100は、例えば、データ作成システム1が備える第1処理装置110及び第2処理装置120(図10参照)のうちの第1処理装置110と、推定システム3(図1参照)と、のみを備えていてもよい。第1処理装置110の機能と、推定システム3の機能とは、1つの装置に備えられていてもよい。評価システム100は、学習済みモデルM1を生成する学習システム2(図1参照)を更に備えていてもよい。第1処理装置110の機能と学習システム2の機能と推定システム3の機能とは、1つの装置に備えられていてもよい。
 (4)まとめ
 以上説明したように、第1の態様に係るデータ作成システム(1)は、第1画像データ(D11)から、オブジェクト(4)に関する学習済みモデル(M1)を生成するための学習用データとして用いられる第2画像データ(D12)を作成する。データ作成システム(1)は、変形部(11)と、除去部(12)と、特徴取得部(13)と、特徴付与部(14)と、を備える。変形部(11)は、オブジェクト(4)を示す画素領域(R1)を含む第1画像データ(D11)から、オブジェクト(4)に関する変形を施した第2画像データ(D12)を生成する。除去部(12)は、第1画像データ(D11)に存在する線状の第1特徴(X1)を除去する。特徴取得部(13)は、第2特徴(X2)を取得する。特徴付与部(14)は、第2特徴(X2)を第2画像データ(D12)に付与する。
 この態様によれば、変形が施された線状の第1特徴(X1)が第2画像データ(D12)に残ることで実際に存在しない画像データが作成されてしまう可能性が低減される。結果的に、オブジェクト(4)に関する認識性能の低下の抑制を図ることができる。
 第2の態様に係るデータ作成システム(1)に関して、第1の態様において、第2特徴(X2)は、第1画像データ(D11)に存在する線状の第1特徴(X1)を含む。特徴取得部(13)は、第2特徴(X2)として、第1画像データ(D11)から第1特徴(X1)を取得する。
 この態様によれば、例えば第2特徴(X2)を別の画像データから取得する場合に比べて、実際に存在し得る画像データにより近い形で、疑似的にデータ作成(例えばデータ拡張)を行うことができる。
 第3の態様に係るデータ作成システム(1)に関して、第2の態様において、除去部(12)は、第1画像データ(D11)から第1特徴(X1)を除去する。変形部(11)は、第1特徴(X1)が除去された第1画像データ(D11)から、第2画像データ(D12)を生成する。特徴付与部(14)は、特徴取得部(13)が第1画像データ(D11)から取得した第1特徴(X1)を第2画像データ(D12)に付与する。
 この態様によれば、例えば変形後に第1特徴(X1)を除去する場合に比べて、第1特徴(X1)の特定が容易となる。
 第4の態様に係るデータ作成システム(1)に関して、第2の態様において、除去部(12)は、第2画像データ(D12)から変形後の第1特徴(X1)を除去する。特徴付与部(14)は、第1特徴(X1)が除去された第2画像データ(D12)に、特徴取得部(13)が第1画像データ(D11)から取得した第1特徴(X1)を付与する。
 この態様によれば、例えば変形前に第1特徴(X1)を除去する場合に比べて、変形後の第1特徴(X1)を含んだ第2画像データ(D12)を利用しやすくなる。
 第5の態様に係るデータ作成システム(1)に関して、第1~第4の態様のいずれか1つにおいて、第2特徴(X2)は、第1画像データ(D11)とは別の画像データ(例えば、第3画像データD13)に存在する線状の第3特徴(X3)を含む。特徴取得部(13)は、第2特徴(X2)として、当該別の画像データから第3特徴(X3)を取得する。
 この態様によれば、実際に存在し得る画像データに更に近い形で、多様なデータ作成(例えばデータ拡張)を行うことができる。
 第6の態様に係るデータ作成システム(1)に関して、第1~第5の態様のいずれか1つにおいて、線状の第1特徴(X1)は、直線状の特徴(X11)を含む。
 この態様によれば、線状の第1特徴(X1)の変形が原因で実際に存在し得る画像データからかけ離れてしまうことを抑制できる。
 第7の態様に係るデータ作成システム(1)に関して、第6の態様において、直線状の特徴(X11)は、オブジェクト(4)を撮像したラインセンサカメラ(6)に依存して第1画像データ(D11)上における複数のスキャンライン間の境界に関する。
 この態様によれば、複数のスキャンライン間の境界に関する特徴の変形が原因で実際に存在し得る画像データからかけ離れてしまうことを抑制できる。
 第8の態様に係るデータ作成システム(1)に関して、第7の態様において、直線状の特徴(X11)は、ラインセンサカメラ(6)からオブジェクト(4)までの距離の差に応じて発生し得る複数のスキャンライン間の高さの差に対応する画素値の差に基づく特徴である。
 この態様によれば、直線状の特徴(X11)の取得(抽出)が容易となる。
 第9の態様に係るデータ作成システム(1)に関して、第1~第8の態様のいずれか1つにおいて、オブジェクト(4)に関する変形は、オブジェクト(4)の回転を含む。
 この態様によれば、オブジェクト(4)の回転により発生する線状の第1特徴(X1)の変形が原因で実際に存在し得る画像データからかけ離れてしまうことを抑制できる。
 第10の態様に係るデータ作成システム(1)に関して、第1~第9の態様のいずれか1つにおいて、オブジェクト(4)に関する変形は、オブジェクト(4)の形状の変形を含む。
 この態様によれば、オブジェクト(4)の形状の変形により発生する線状の第1特徴(X1)の変形が原因で実際に存在し得る画像データからかけ離れてしまうことを抑制できる。
 第11の態様に係るデータ作成システム(1A)は、オブジェクト(4)に関する学習済みモデル(M1)を生成するための学習用データとして用いられる画像データ(第4画像データD14)を作成する。データ作成システム(1A)は、特徴取得部(13A)と、特徴付与部(14A)と、を備える。特徴取得部(13A)は、線状の特徴(例えば第3特徴X3)を取得する。特徴付与部(14A)は、オブジェクト(4)を示す画素領域(R1)を含む画像データ(第4画像データD14)に、線状の特徴(第3特徴X3)を付与する。
 この態様によれば、線状の特徴(例えば第3特徴X3)を画像データ(第4画像データD14)に付与するため、実際に存在し得る画像データにより近い形で、疑似的にデータ作成(例えばデータ拡張)を行うことができる。結果的に、オブジェクト(4)に関する認識性能の低下の抑制を図ることができる。
 第12の態様に係るデータ作成システム(1A)に関して、第11の態様において、線状の特徴は、オブジェクト(4)を撮像するラインセンサカメラ(6)に依存する複数のスキャンライン間の境界に関する。
 この態様によれば、複数のスキャンライン間の境界に関する線状の特徴(第3特徴X3)を画像データ(第4画像データD14)に付与するため、実際に存在し得る画像データにより近い形で、疑似的にデータ作成(例えばデータ拡張)を行うことができる。結果的に、オブジェクト(4)に関する認識性能の低下の抑制を図ることができる。
 第13の態様に係る学習システム(2)は、第1~第12の態様のいずれか1つにおけるデータ作成システム(1,1A)で作成された画像データとしての学習用データを含む学習用データセットを用いて、学習済みモデル(M1)を生成する。
 この態様によれば、オブジェクト(4)に関する認識性能の低下の抑制を図ることが可能な学習システム(2)を提供できる。
 第14の態様に係る推定システム(3)は、第13の態様における学習システム(2)で生成された学習済みモデル(M1)を用いて、認識対象となるオブジェクト(4)における特定状態に関する推定を行う。
 この態様によれば、オブジェクト(4)に関する認識性能の低下の抑制を図ることが可能な推定システム(3)を提供できる。
 第15の態様に係るデータ作成方法は、第1画像データ(D11)から、オブジェクト(4)に関する学習済みモデル(M1)を生成するための学習用データとして用いられる第2画像データ(D12)を作成するデータ作成方法である。データ作成方法は、変形ステップと、除去ステップと、特徴取得ステップと、特徴付与ステップと、を含む。変形ステップでは、オブジェクト(4)を示す画素領域(R1)を含む第1画像データ(D11)から、オブジェクト(4)に関する変形を施した第2画像データ(D12)を生成する。除去ステップでは、第1画像データ(D11)に存在する線状の第1特徴(X1)を除去する。特徴取得ステップでは、第2特徴(X2)を取得する。特徴付与ステップでは、第2特徴(X2)を第2画像データ(D12)に付与する。
 この態様によれば、オブジェクト(4)に関する認識性能の低下の抑制を図ることが可能なデータ作成方法を提供できる。
 第16の態様に係るデータ作成方法は、オブジェクト(4)に関する学習済みモデル(M1)を生成するための学習用データとして用いられる画像データ(第4画像データD14)を作成するデータ作成方法である。データ作成方法は、特徴取得ステップと、特徴付与ステップと、を含む。特徴取得ステップでは、線状の特徴(例えば第3特徴X3)を取得する。特徴付与ステップでは、オブジェクト(4)を示す画素領域(R1)を含む画像データ(第4画像データD14)に、線状の特徴(第3特徴X3)を付与する。
 この態様によれば、オブジェクト(4)に関する認識性能の低下の抑制を図ることが可能なデータ作成方法を提供できる。
 第17の態様に係るプログラムは、1以上のプロセッサに、第15又は第16の態様におけるデータ作成方法を実行させるためのプログラムである。
 この態様によれば、オブジェクト(4)に関する認識性能の低下の抑制を図ることが可能な機能を提供できる。
 第18の態様のデータ作成システム(1)は、第1~第10の態様のいずれか1つにおいて、第1画像データ(D11)から第1特徴(X1)を抽出する特徴抽出部(15)を更に備える。特徴抽出部(15)は、第1処理装置(110)が有している。特徴付与部(14)は、第1処理装置(110)とは異なる第2処理装置(120)が有している。第1処理装置(110)は、第1特徴(X1)を示す情報(D20)を、第2処理装置(120)に送信する。
 この態様によれば、オブジェクト(4)に関する認識性能の低下の抑制を図ることができる。
 第19の態様の処理装置は、第18の態様のデータ作成システム(1)における、第1処理装置(110)である。
 第20の態様の処理装置は、第18の態様のデータ作成システム(1)における、第2処理装置(120)である。
 第21の態様の評価システム(100)は、オブジェクト(4)における特定状態に関する推定を行う評価システムである。評価システム(100)は、処理装置(110)と、推定システム(3)と、を備える。処理装置(110)は、オブジェクト(4)を示す画素領域(R1)を含む第1画像データ(D11)に存在する線状の第1特徴(X1)を抽出する。処理装置(110)は、抽出した第1特徴(X1)を示す情報(D20)を出力する。推定システム(3)は、第1画像データ(D11)から第1特徴(X1)を除去しオブジェクト(4)に関する変形を施した第2画像データ(D12)に第2特徴を付与した画像データに対して、オブジェクト(4)の特定状態に関する推定について第1画像データ(D11)と同等の推定結果を出力する。
 この態様によれば、オブジェクト(4)に関する認識性能の低下の抑制を図ることができる。
 第22の態様の評価システム(100)に関して、第21の態様において、オブジェクト(4)に関する変形は、オブジェクト(4)の回転、反転、平行移動、拡大、及び縮小からなる群から選択される少なくとも1つを含む。
 この態様によれば、オブジェクト(4)に関する認識性能の低下の抑制を図ることができる。
 第23の態様の評価システム(100)に関して、第21又は第22の態様において、推定システム(3)は、学習済みモデル(M1)を用いて、オブジェクト(4)における特定状態に関する推定を行う。評価システム(100)は、学習済みモデル(M1)を生成する学習システム(2)を更に備える。学習済みモデル(M1)は、第1画像データ(D11)から第1特徴(X1)を除去しオブジェクト(4)に関する変形を施した第2画像データ(D12)に第2特徴(X2)を付与した画像データに対して、オブジェクト(4)の特定状態に関する推定について第1画像データ(D11)と同等の推定結果を出力する。
 この態様によれば、オブジェクト(4)に関する認識性能の低下の抑制を図ることができる。
 第24の態様の学習システム(2)は、第23の態様の評価システム(100)における、学習システム(2)である。
 第25の態様の処理装置(110)は、第21~23の態様のいずれか1つの態様の評価システム(100)における、処理装置(110)である。
 第26の態様の推定システムは、第21~23の態様のいずれか1つの評価システム(100)における、推定システム(3)である。
 第2~10,18の態様に係る構成については、データ作成システム(1)に必須の構成ではなく、適宜省略可能である。第22,23の態様に係る構成については、評価システム(100)に必須の構成ではなく、適宜省略可能である。
 1,1A データ作成システム
 11 変形部
 12 除去部
 13,13A 特徴取得部
 14,14A 特徴付与部
 15 特徴抽出部
 2 学習システム
 3 推定システム
 4 オブジェクト
 6 ラインセンサカメラ
 100 評価システム
 110 第1処理装置(処理装置)
 120 第2処理装置
 D11 第1画像データ
 D12 第2画像データ
 D20 情報(第1特徴を示す情報)
 M1 学習済みモデル
 R1 画素領域
 X1 第1特徴
 X11 直線状の特徴
 X2 第2特徴
 X3 第3特徴

Claims (26)

  1.  第1画像データから、オブジェクトに関する学習済みモデルを生成するための学習用データとして用いられる第2画像データを作成するデータ作成システムであって、
     前記オブジェクトを示す画素領域を含む前記第1画像データから、前記オブジェクトに関する変形を施した前記第2画像データを生成する変形部と、
     前記第1画像データに存在する線状の第1特徴を除去する除去部と、
     第2特徴を取得する特徴取得部と、
     前記第2特徴を前記第2画像データに付与する特徴付与部と、
    を備える、
     データ作成システム。
  2.  前記第2特徴は、前記第1画像データに存在する線状の前記第1特徴を含み、
     前記特徴取得部は、前記第2特徴として、前記第1画像データから前記第1特徴を取得する、
     請求項1に記載のデータ作成システム。
  3.  前記除去部は、前記第1画像データから前記第1特徴を除去し、
     前記変形部は、前記第1特徴が除去された前記第1画像データから、前記第2画像データを生成し、
     前記特徴付与部は、前記特徴取得部が前記第1画像データから取得した前記第1特徴を前記第2画像データに付与する、
     請求項2に記載のデータ作成システム。
  4.  前記除去部は、前記第2画像データから変形後の前記第1特徴を除去し、
     前記特徴付与部は、前記第1特徴が除去された前記第2画像データに、前記特徴取得部が前記第1画像データから取得した前記第1特徴を付与する、
     請求項2に記載のデータ作成システム。
  5.  前記第2特徴は、前記第1画像データとは別の画像データに存在する線状の第3特徴を含み、
     前記特徴取得部は、前記第2特徴として、前記別の画像データから前記第3特徴を取得する、
     請求項1~4のいずれか1項に記載のデータ作成システム。
  6.  線状の前記第1特徴は、直線状の特徴を含む、
     請求項1~5のいずれか1項に記載のデータ作成システム。
  7.  前記直線状の特徴は、前記オブジェクトを撮像したラインセンサカメラに依存して前記第1画像データ上における複数のスキャンライン間の境界に関する、
     請求項6に記載のデータ作成システム。
  8.  前記直線状の特徴は、前記ラインセンサカメラから前記オブジェクトまでの距離の差に応じて発生し得る前記複数のスキャンライン間の高さの差に対応する画素値の差に基づく特徴である、
     請求項7に記載のデータ作成システム。
  9.  前記オブジェクトに関する変形は、前記オブジェクトの回転を含む、
     請求項1~8のいずれか1項に記載のデータ作成システム。
  10.  前記オブジェクトに関する変形は、前記オブジェクトの形状の変形を含む、
     請求項1~9のいずれか1項に記載のデータ作成システム。
  11.  オブジェクトに関する学習済みモデルを生成するための学習用データとして用いられる画像データを作成するデータ作成システムであって、
     線状の特徴を取得する特徴取得部と、
     前記オブジェクトを示す画素領域を含む前記画像データに、前記線状の特徴を付与する特徴付与部と、
    を備える、
     データ作成システム。
  12.  前記線状の特徴は、前記オブジェクトを撮像するラインセンサカメラに依存する複数のスキャンライン間の境界に関する、
     請求項11に記載のデータ作成システム。
  13.  請求項1~12のいずれか1項に記載のデータ作成システムで作成された画像データとしての前記学習用データを含む学習用データセットを用いて、前記学習済みモデルを生成する、
     学習システム。
  14.  請求項13に記載の学習システムで生成された前記学習済みモデルを用いて、認識対象となる前記オブジェクトにおける特定状態に関する推定を行う、
     推定システム。
  15.  第1画像データから、オブジェクトに関する学習済みモデルを生成するための学習用データとして用いられる第2画像データを作成するデータ作成方法であって、
     前記オブジェクトを示す画素領域を含む前記第1画像データから、前記オブジェクトに関する変形を施した前記第2画像データを生成する変形ステップと、
     前記第1画像データに存在する線状の第1特徴を除去する除去ステップと、
     第2特徴を取得する特徴取得ステップと、
     前記第2特徴を前記第2画像データに付与する特徴付与ステップと、
    を含む、
     データ作成方法。
  16.  オブジェクトに関する学習済みモデルを生成するための学習用データとして用いられる画像データを作成するデータ作成方法であって、
     線状の特徴を取得する特徴取得ステップと、
     前記オブジェクトを示す画素領域を含む前記画像データに、前記線状の特徴を付与する特徴付与ステップと、
    を含む、
     データ作成方法。
  17.  1以上のプロセッサに、請求項15又は請求項16に記載のデータ作成方法を実行させるためのプログラム。
  18.  前記データ作成システムは、前記第1画像データから前記第1特徴を抽出する特徴抽出部を更に備え、
     前記特徴抽出部は、第1処理装置が有しており、
     前記特徴付与部は、前記第1処理装置とは異なる第2処理装置が有しており、
     前記第1処理装置は、前記第1特徴を示す情報を前記第2処理装置に送信する、
     請求項1~10のいずれか1項に記載のデータ作成システム。
  19.  請求項18に記載のデータ作成システムにおける前記第1処理装置としての、
     処理装置。
  20.  請求項18に記載のデータ作成システムにおける前記第2処理装置としての、
     処理装置。
  21.  オブジェクトにおける特定状態に関する推定を行う評価システムであって、処理装置と、推定システムと、を備え、
     前記処理装置は、
      オブジェクトを示す画素領域を含む第1画像データに存在する線状の第1特徴を抽出し、
      抽出した前記第1特徴を示す情報を出力し、
     前記推定システムは、前記第1画像データから前記第1特徴を除去し前記オブジェクトに関する変形を施した第2画像データに第2特徴を付与した画像データに対して、前記オブジェクトの特定状態に関する推定について前記第1画像データと同等の推定結果を出力する、
     評価システム。
  22.  前記オブジェクトに関する変形は、前記オブジェクトの回転、反転、平行移動、拡大、及び縮小からなる群から選択される少なくとも1つを含む、
     請求項21に記載の評価システム。
  23.  前記推定システムは、学習済みモデルを用いて、前記オブジェクトにおける前記特定状態に関する推定を行い、
     前記評価システムは、前記学習済みモデルを生成する学習システムを更に備え、
     前記学習済みモデルは、前記第1画像データから前記第1特徴を除去し前記オブジェクトに関する変形を施した第2画像データに第2特徴を付与した画像データに対して、前記オブジェクトの前記特定状態に関する推定について前記第1画像データと同等の推定結果を出力する、
     請求項21又は22に記載の評価システム。
  24.  請求項23に記載の評価システムにおける、学習システム。
  25.  請求項21~23のいずれか1項に記載の評価システムにおける、処理装置。
  26.  請求項21~23のいずれか1項に記載の評価システムにおける、推定システム。
PCT/JP2021/040716 2020-11-10 2021-11-05 データ作成システム、学習システム、推定システム、処理装置、評価システム、データ作成方法、及びプログラム WO2022102525A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022561869A JPWO2022102525A1 (ja) 2020-11-10 2021-11-05
CN202180070260.4A CN116368518A (zh) 2020-11-10 2021-11-05 数据创建系统、学习系统、估计系统、处理设备、评估系统、数据创建方法和程序
US18/249,928 US20230394798A1 (en) 2020-11-10 2021-11-05 Data creation system, learning system, estimation system, processing device, evaluation system, data creation method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020187511 2020-11-10
JP2020-187511 2020-11-10

Publications (1)

Publication Number Publication Date
WO2022102525A1 true WO2022102525A1 (ja) 2022-05-19

Family

ID=81602193

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040716 WO2022102525A1 (ja) 2020-11-10 2021-11-05 データ作成システム、学習システム、推定システム、処理装置、評価システム、データ作成方法、及びプログラム

Country Status (4)

Country Link
US (1) US20230394798A1 (ja)
JP (1) JPWO2022102525A1 (ja)
CN (1) CN116368518A (ja)
WO (1) WO2022102525A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020106461A (ja) * 2018-12-28 2020-07-09 Tdk株式会社 画像生成装置及び外観検査装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020106461A (ja) * 2018-12-28 2020-07-09 Tdk株式会社 画像生成装置及び外観検査装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ITO, HIDEMASA; IRIMOTO, YUJI; KASHIMOTO, SHINICHI: "Deep Learning Data Augmentation Technique to Improve Image Recognition Accuracy", TOSHIBA REVIEW, vol. 72, no. 4, 30 September 2017 (2017-09-30), JP , pages 18 - 21, XP009536633, ISSN: 0372-0462 *

Also Published As

Publication number Publication date
JPWO2022102525A1 (ja) 2022-05-19
US20230394798A1 (en) 2023-12-07
CN116368518A (zh) 2023-06-30

Similar Documents

Publication Publication Date Title
JP4926116B2 (ja) 画像検査装置
JP4908440B2 (ja) 画像処理装置及び方法
JP4617970B2 (ja) 欠陥検査装置及び欠陥検査方法
JP7434032B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2006337152A (ja) 教示用画像生成方法および装置、画像処理アルゴリズム生成方法および装置、画像検査方法および装置、プログラムならびに記録媒体
CN114170227A (zh) 产品表面缺陷检测方法、装置、设备及存储介质
CN110471607B (zh) 手写笔迹显示方法、手写阅读设备及计算机存储介质
JP2003141548A (ja) 3次元ラベリング装置及びその方法
JP2021165888A (ja) 情報処理装置、情報処理装置の情報処理方法およびプログラム
WO2022102525A1 (ja) データ作成システム、学習システム、推定システム、処理装置、評価システム、データ作成方法、及びプログラム
JP4041060B2 (ja) 画像処理装置、画像処理方法
WO2022102524A1 (ja) データ作成システム、学習システム、推定システム、処理装置、データ作成方法、及びプログラム
JP2014186588A (ja) シミュレーション装置、プログラム及び画像生成方法
US8054313B1 (en) Simulation repair
JP7343336B2 (ja) 検査支援装置および検査支援方法
JP2007323583A (ja) 画像変換装置及び画像変換プログラム
WO2023190044A1 (ja) 画像生成システム、画像生成方法及びプログラム
WO2022102523A1 (ja) データ作成システム、学習システム、推定システム、処理装置、評価システム、データ作成方法、及びプログラム
JP5563390B2 (ja) 画像処理装置およびその制御方法、及びプログラム
WO2022102522A1 (ja) データ作成システム、学習システム、推定システム、処理装置、評価システム、データ作成方法、及びプログラム
WO2023190045A1 (ja) 画像生成システム、画像生成方法及びプログラム
JP2017016169A (ja) 検査方法、検査装置、画像処理装置、プログラム及び記録媒体
CN115690090B (zh) 缺陷样本图像生成方法、装置、设备及存储介质
JP2005346300A (ja) 筋状欠陥検出方法及び装置
JP2022123733A (ja) 検査装置、検査方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21891771

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022561869

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21891771

Country of ref document: EP

Kind code of ref document: A1