JP7467773B2 - 教師データ生成装置、教師データ生成方法、及び画像処理装置 - Google Patents

教師データ生成装置、教師データ生成方法、及び画像処理装置 Download PDF

Info

Publication number
JP7467773B2
JP7467773B2 JP2023523453A JP2023523453A JP7467773B2 JP 7467773 B2 JP7467773 B2 JP 7467773B2 JP 2023523453 A JP2023523453 A JP 2023523453A JP 2023523453 A JP2023523453 A JP 2023523453A JP 7467773 B2 JP7467773 B2 JP 7467773B2
Authority
JP
Japan
Prior art keywords
input image
generating
polygon data
data
recognition target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023523453A
Other languages
English (en)
Other versions
JPWO2022249997A1 (ja
JPWO2022249997A5 (ja
Inventor
康平 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of JPWO2022249997A1 publication Critical patent/JPWO2022249997A1/ja
Publication of JPWO2022249997A5 publication Critical patent/JPWO2022249997A5/ja
Application granted granted Critical
Publication of JP7467773B2 publication Critical patent/JP7467773B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Description

関連出願へのクロスリファレンス
本出願は、日本国特許出願2021-87206号(2021年5月24日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
本開示は、教師データ生成装置、教師データ生成方法、及び画像処理装置に関する。
従来、機械学習モデルを用いて画像をセグメンテーションした結果に基づいて画像に付したラベルを含む教師データを作成する装置が知られている(例えば特許文献1参照)。
特開2019-101535号公報
本開示の一実施形態に係る教師データ生成装置は、入力部と、制御部と、出力部とを備える。前記入力部は、認識対象の画像を含む少なくとも1つの入力画像を取得する。前記制御部は、前記入力画像の第1領域から前記認識対象の画像と判断された部分の輪郭に沿ったポリゴンデータの生成を行う第1の処理を実行する。前記制御部は、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行する。前記制御部は、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータを修正した修正ポリゴンデータを生成する。前記制御部は、前記入力画像に対してラベル情報を付与し、教師データを生成する。前記出力部は、前記教師データを出力する。
本開示の一実施形態に係る教師データ生成方法は、認識対象の画像を含む少なくとも1つの入力画像を取得することを含む。前記教師データ生成方法は、前記入力画像の第1領域から前記認識対象の画像と判断された部分の輪郭に沿ったポリゴンデータの生成を行う第1の処理を実行することを含む。前記教師データ生成方法は、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することを含む。前記教師データ生成方法は、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータを修正した修正ポリゴンデータを生成することを含む。前記教師データ生成方法は、前記入力画像に対してラベル情報を付与することを含む。前記教師データ生成方法は、教師データを生成して出力することを含む。
本開示の一実施形態に係る画像処理装置は、入力部と、制御部とを備える。前記入力部は、認識対象の画像を含む少なくとも1つの入力画像を取得する。前記制御部は、前記入力画像の第1領域から前記認識対象の画像と判断された部分の輪郭に沿ったポリゴンデータの生成を行う第1の処理を実行する。前記制御部は、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行する。前記制御部は、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータを修正した修正ポリゴンデータを生成する。
一実施形態に係る教師データ生成装置の構成例を示すブロック図である。 認識対象を含む入力画像の一例を示す図である。 入力画像に対して前処理を実行した前処理画像の一例を示す図である。 認識対象の初期ポリゴンを生成した初期ポリゴン画像の一例を示す図である。 初期ポリゴンの生成モードを選択する操作画面の一例を示す図である。 スーパーピクセルを実行して領域を生成したセグメント画像の一例を示す図である。 指定領域に対してスーパーピクセルを実行したセグメント画像の一例を示す図である。 認識対象のポリゴンに含まれる領域のうち削除領域が特定されたセグメント画像の一例を示す図である。 初期ポリゴンを修正して修正ポリゴンを生成した修正ポリゴン画像の一例を示す図である。 初期ポリゴンと修正ポリゴンとを比較する図である。 教師データ生成方法の手順例を示すフローチャートである。 機械学習による推論によって初期ポリゴンを生成する手順の一例を示すフローチャートである。 色相データを用いた前景抽出によって初期ポリゴンを生成する手順の一例を示すフローチャートである。 グラフカットによって初期ポリゴンを生成する手順の一例を示すフローチャートである。 ポリゴンの修正データに基づいて初期ポリゴンの生成のための機械学習を実行する手順例を示すフローチャートである。 図15のフローチャートの続きの手順を示すフローチャートである。
機械学習モデルを用いて対象物にラベル情報を付与する場合において、学習した対象物とは異なる対象物に対するラベル情報の付与の精度が低下し得る。つまり、ラベル情報の付与におけるロバスト性が低下し得る。本開示の一実施形態に係る教師データ生成装置、及び教師データ生成装置によれば、ラベル情報の付与におけるロバスト性が向上し得る。
(教師データ生成装置10の構成例)
本開示の一実施形態に係る教師データ生成装置10は、画素を有する画像データであって、認識対象50(図2等参照)の画像を含む画像データに対して画素の単位でセグメンテーションを行う機械学習モデルを生成するための教師データを作成する。セグメンテーションを行う機械学習モデルは、第1機械学習モデルとも称される。教師データ生成装置10は、認識対象50の画像を含む少なくとも1つの入力画像40(図2等参照)に対して認識対象50の輪郭を表すポリゴンを関連づけた情報を、教師データとして生成する。
教師データ生成装置10は、例えば以下の手順を実行することによって、教師データを生成してよい。教師データ生成装置10は、入力画像40において認識対象50の画像と判断された部分の輪郭に沿ったポリゴンデータを生成する第1の処理を実行する。教師データ生成装置10は、第1の処理において、ポリゴンデータの初期値として初期ポリゴン51(図4参照)を生成する。また、教師データ生成装置10は、入力画像40を輝度勾配に基づいて領域分割したセグメント52(図6等参照)を設定する第2の処理を実行する。教師データ生成装置10は、第2の処理としてスーパーピクセルを実行し、入力画像40に対してセグメンテーション情報を付与してよい。言い換えれば、教師データ生成装置10は、スーパーピクセルを実行することによって、入力画像40に対してセグメント52を設定する。教師データ生成装置10は、画像データに設定されたセグメント52に基づいてポリゴンを修正し、修正ポリゴン55(図9参照)を生成する。修正ポリゴン55は、修正ポリゴンデータとも称される。教師データ生成装置10は、入力画像40においてポリゴンデータとして修正ポリゴン55を生成したデータに入力画像40に対するラベル情報を付与したデータを、教師データとして生成する。
図1に示されるように、教師データ生成装置10は、入力部12と、制御部14と、出力部16とを備える。入力部12は、入力画像40の入力を受け付ける。制御部14は、入力部12から入力画像40を取得し、入力画像40に基づいて教師データを生成する。出力部16は、制御部14で生成された教師データを出力する。
入力部12は、入力画像40の入力を受け付けるインタフェースを備える。出力部16は、教師データを出力するインタフェースを備える。インタフェースは、有線又は無線で通信可能に構成される通信デバイスを含んで構成されてよい。通信デバイスは、種々の通信規格に基づく通信方式で通信可能に構成されてよい。通信デバイスは、既知の通信技術により構成することができる。
入力部12は、ユーザから情報又はデータ等の入力を受け付ける入力デバイスを含んで構成されてもよい。入力デバイスは、例えば、タッチパネル若しくはタッチセンサ、又はマウス等のポインティングデバイスを含んで構成されてよい。入力デバイスは、物理キーを含んで構成されてもよい。入力デバイスは、マイク等の音声入力デバイスを含んで構成されてもよい。
制御部14は、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含んで構成されてよい。プロセッサは、制御部14の種々の機能を実現するプログラムを実行してよい。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)とも称される。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。
制御部14は、記憶部を備えてよい。記憶部は、磁気ディスク等の電磁記憶媒体を含んでよいし、半導体メモリ又は磁気メモリ等のメモリを含んでもよい。記憶部は、各種情報を格納する。記憶部は、制御部14で実行されるプログラム等を格納する。記憶部は、非一時的な読み取り可能媒体として構成されてもよい。記憶部は、制御部14のワークメモリとして機能してよい。記憶部の少なくとも一部は、制御部14とは別体として構成されてもよい。
本実施形態において、制御部14は、画像処理部141と、初期ポリゴン生成部142と、スーパーピクセル部143と、ポリゴン修正部144と、ラベル付与部145と、教師データ生成部146とを備える。制御部14の各構成部は、教師データを生成するために必要な処理を実行可能に構成されるとする。制御部14は、複数の構成部それぞれに対応する複数のプロセッサを備えてよい。各プロセッサは、各構成部の処理を分担して実行可能に構成される。制御部14は、1つのプロセッサで必要な処理を実行可能に構成されてもよい。
(教師データ生成装置10の動作例)
教師データ生成装置10の具体的な動作例が以下説明される。
<画像の入力>
入力部12は、図2に例示される入力画像40の入力を受け付け、制御部14に出力する。入力画像40は、認識対象50の画像を含み、教師データの生成のために用いられる。入力部12は、入力画像40として、1枚の画像の入力を受け付けてもよいし、2枚以上の画像の入力を受け付けてもよい。
<前処理>
制御部14の画像処理部141は、入力部12から取得した入力画像40に含まれるノイズの低減、及び、認識対象50の輪郭の強調を目的とした画像処理を実行する。画像処理部141は、例えば、コントラスト補正、ガンマ補正、バイラテラルフィルタ、又はガウシアンフィルタ等の処理を実行してよい。画像処理部141は、取得した入力画像40の内容、又は、画像処理の目的に応じて、認識対象50の輪郭が強調されるように、処理を選択したり処理のパラメータを調整したりする。画像処理部141が実行する処理は、前処理とも称される。入力画像40に対して前処理を実行して得られた画像は、前処理画像41とも称される。前処理画像41が図3に例示される。
<初期ポリゴン生成>
制御部14の初期ポリゴン生成部142は、図4に例示されるように、前処理画像41に対して初期ポリゴン51を生成する。初期ポリゴン51は、認識対象50の輪郭を表す線である。初期ポリゴン51を生成した画像は、ポリゴン生成画像42とも称される。初期ポリゴン生成部142は、前処理が実行されない場合、入力画像40に対して初期ポリゴン51を生成する。初期ポリゴン51を生成する処理は、第1の処理に含まれる。初期ポリゴン生成部142は、初期ポリゴン51を生成するために、以下に述べる処理を実行してよい。
<<機械学習による推論>>
初期ポリゴン生成部142は、事前学習済みの機械学習モデルを用いて、入力された入力画像40又は前処理画像41に対して機械学習による物体検出の推論を実行し、出力された輪郭情報を初期ポリゴン51として使用してよい。初期ポリゴン51を生成するための推論に用いられる機械学習モデルは、第2機械学習モデルとも称される。初期ポリゴン生成部142は、認識対象50の輪郭が複雑である場合に真の輪郭が出力されない可能性を考慮して、機械学習の推論によって得られた初期ポリゴン51をコスト関数として、ポリゴン生成画像42に対するグラフカット処理を更に実行してよい。初期ポリゴン生成部142は、グラフカット処理によって得られるデータを初期ポリゴン51として使用してよい。
<<色相データを用いた前景抽出>>
輪郭抽出において、複数の認識対象50を1つのクラスとして学習させて前景抽出に特化したモデルを事前学習済みモデルとして用いることが有効であると知られている。そこで、初期ポリゴン生成部142は、入力画像40又は前処理画像41に対して領域を指定し、指定した領域の背景色データを抽出し、背景色データの色相値を用いて得られる前景の輪郭を初期ポリゴン51として使用してよい。このように前景を抽出する手法は、クロマキー合成等で知られる一般的な手法である。画像の背景が単純な構造である場合、認識対象50としての前景の物体が複数ある場合においても高速に輪郭が抽出され得る。
<<グラフカット>>
初期ポリゴン生成部142は、ユーザが作成したコスト関数をグラフカット処理にかけて、得られたデータを初期ポリゴン51として使用してもよい。
<<処理の選択>>
教師データ生成装置10は、初期ポリゴン生成部142がどの処理を実行するか、ユーザが指定する入力を入力部12で受け付けてよい。入力部12は、ユーザインタフェースを含んでよい。例えば、入力部12は、図5に示されるような選択画面をユーザに提示してユーザから処理を選択する入力を受け付けてもよい。図5に例示される各モードは、上述した処理のどれを実行するか指定する情報に関連づけられてよいし、上述した各処理を実行する際に指定するパラメータに関連づけられてもよい。
初期ポリゴン生成部142は、色相データを用いた前景抽出、グラフカット、若しくは、機械学習による推論のいずれかの手法、又は、これらを組み合わせた手法によって、初期ポリゴン51を生成してもよい。色相データを用いた前景抽出は、色相情報に基づく背景除去とも言い換えられる。機械学習による推論は、第2機械学習モデルによる認識対象50の検出の推論とも言い換えられる。初期ポリゴン生成部142は、第1の処理において、色相情報に基づく背景除去、グラフカット、及び、第2機械学習モデルによる認識対象50の検出の推論のうち少なくとも1つを含む所定のアルゴリズムに基づいて、ポリゴンデータを生成してよい。
初期ポリゴン生成部142は、入力画像40の少なくとも一部の領域を指定して、その領域内において初期ポリゴン51を生成してよい。初期ポリゴン51を生成する対象として指定される領域は、第1領域とも称される。
<スーパーピクセル>
スーパーピクセルは、入力画像40の輝度勾配が高い箇所を抽出し、輪郭線に沿って画像内を複数領域に分割する画像処理手法として知られている。制御部14のスーパーピクセル部143は、図6及び図7に例示されるように、入力画像40の少なくとも一部を含む指定領域53に対してスーパーピクセルを実行してセグメント52に分割する。スーパーピクセル部143は、生成したセグメント52の境界を特定するセグメンテーション情報を、画像に関連づける。セグメンテーション情報が関連づけられた画像は、セグメント画像43とも称される。スーパーピクセルの実行は、第2の処理に含まれる。
スーパーピクセル部143は、スーパーピクセルの対象とする指定領域53(図6参照)を適宜設定してよい。指定領域53は、第2領域とも称される。スーパーピクセル部143は、初期ポリゴン51のデータに基づいて初期ポリゴン51を全て含むように指定領域53を設定してもよい。例えば、図6において、スーパーピクセル部143は、4つの認識対象50を含む範囲を指定領域53としてセグメント52を生成している。スーパーピクセル部143は、複数の初期ポリゴン51が生成されている場合、各初期ポリゴン51を個別に含むように指定領域53を設定してもよい。例えば、図7において、スーパーピクセル部143は、各認識対象50を個別に含む範囲を指定領域53としてセグメント52を生成している。スーパーピクセル部143は、ユーザから範囲を指定する入力を受け付けてユーザの指定に基づいて指定領域53を設定してもよい。スーパーピクセル部143が指定領域53を自動的に設定する場合、指定領域53が初期ポリゴン51の領域に対してどの程度の大きくするかを設定できるようにしてもよい。スーパーピクセル部143は、画像全体ではなく処理範囲を限定することによって、スーパーピクセル処理を高速化したり、スーパーピクセル処理の負荷を低減したりできる。
<ポリゴン修正>
制御部14のポリゴン修正部144は、初期ポリゴン51に基づいて、初期ポリゴン51に対するセグメント52の追加、又は、初期ポリゴン51からの一部のセグメント52の削除等を実行する。ポリゴン修正部144は、初期ポリゴン51が認識対象50の輪郭を正確に捉えていない箇所について、ユーザの操作に基づいて初期ポリゴン51を修正したり、ラベルを付与しない初期ポリゴン51のデータを削除したりする。例えば図8に示されるように、初期ポリゴン51が認識対象50の輪郭として認識対象50の影も含んでいる場合、ポリゴン修正部144は、星印が付されたセグメント52を削除対象領域54として指定し、初期ポリゴン51から削除する。ポリゴン修正部144は、削除対象領域54を初期ポリゴン51から削除することによって、図9に例示されるように認識対象50の輪郭を正確にとらえた修正ポリゴン55を生成できる。修正ポリゴン55の情報が関連づけられた画像は、ポリゴン修正画像44とも称される。なお、初期ポリゴン51が、認識対象50の輪郭を完全に含んでいない場合、すなわち星印が付されたセグメント52が認識対象50の物体の輪郭を形成している場合には、ポリゴン修正部144は、星印が付されたセグメント52を初期ポリゴン51として追加して修正ポリゴン55を生成してもよい。
図10を参照して、初期ポリゴン51と修正ポリゴン55とが比較される。ポリゴン修正部144は、初期ポリゴン51に囲まれている範囲のうち削除対象領域54を削除することによって、認識対象50の真の輪郭に近い輪郭を表す修正ポリゴン55を生成できる。
ポリゴン修正部144は、ユーザによる任意の画素又は領域の指定に基づいて初期ポリゴン51を修正することに加えて、スーパーピクセル部143で生成したセグメンテーション情報に基づいて初期ポリゴン51を修正してよい。ポリゴン修正部144は、例えばユーザから任意の画素値が指定された場合に、指定された画素値を含むセグメント52を前景又は背景として修正することによって修正ポリゴン55を生成できる。セグメンテーション情報に基づいて初期ポリゴン51を修正する場合、ユーザが認識対象50の真の輪郭線をなぞるように入力することによって修正する場合と比較して、初期ポリゴン51を修正するために必要なユーザ操作が減少され得る。また、初期ポリゴン51の修正が高速化され得る。例えば、図10において、初期ポリゴン51に囲まれている範囲のうち削除対象領域54を背景として指定することによって、認識対象50の影に相当する部分の修正が少ない操作で実現され得る。
ポリゴン修正部144は、自動で初期ポリゴン51を修正してもよい。
制御部14のラベル付与部145は、初期ポリゴン51又は修正ポリゴン55で輪郭を表した認識対象50を説明するラベル情報を入力画像40又は前処理画像41に付与する。ラベル付与部145は、入力画像40又は前処理画像41で初期ポリゴン51又は修正ポリゴン55が生成されている場合、ラベル情報を初期ポリゴン51又は修正ポリゴン55に付与する。ラベル付与部145は、ユーザからラベル情報の入力を受け付け、ユーザが指定したラベル情報を付与してよい。ラベル付与部145は、機械学習による推論で決定されるラベル情報を付与してもよい。ラベル付与部145は、入力部12から入力画像40を取得した後からポリゴン修正部144で修正ポリゴン55を生成するまでの期間の任意のタイミングでラベル情報を付与してよい。
制御部14の教師データ生成部146は、入力画像40と、修正ポリゴン55のデータと、ラベル情報とを関連づけたデータを教師データとして生成し、出力部16に出力する。
制御部14は、入力部12から複数の入力画像40を取得した場合、各入力画像40について上述してきた各処理を実行して教師データを生成する。
出力部16は、制御部14から取得した教師データを外部装置に出力する。
以上述べてきたように、本実施形態に係る教師データ生成装置10は、初期ポリゴン51を生成して修正することによって教師データを生成できる。
(教師データ生成方法の手順例)
教師データ生成装置10の制御部14は、図11に例示されるフローチャートの手順を含む教師データ生成方法を実行してもよい。教師データ生成方法は、教師データ生成装置10の制御部14を構成するプロセッサに実行させる教師データ生成プログラムとして実現されてもよい。教師データ生成プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。
教師データ生成装置10の制御部14は、入力部12を介して入力画像40を取得する(ステップS1)。制御部14は、入力画像40に対して前処理を実行する(ステップS2)。制御部14は、初期ポリゴン51の生成モードを選択する(ステップS3)。制御部14は、機械学習による推論、色相データを用いた前景抽出、及びグラフカットのいずれかのモードを選択する。
制御部14は、初期ポリゴン51を生成する(ステップS4)。制御部14は、ステップS3の手順で選択したモードで初期ポリゴン51を生成する。
<機械学習による推論>
制御部14は、機械学習による推論のモードで初期ポリゴン51を生成するために、図12に示されるフローチャートの手順を実行する。
制御部14は、機械学習モデルを取得する(ステップS11)。制御部14は、機械学習モデルを用いて入力画像40から認識対象50の輪郭を検出する推論を実行する(ステップS12)。
制御部14は、グラフカットを実行するか判定する(ステップS13)。制御部14は、グラフカットを実行すると判定しない場合(ステップS13:NO)、ステップS15の手順に進む。制御部14は、グラフカットを実行すると判定した場合(ステップS13:YES)、推論の実行によって検出した輪郭をコスト関数として入力画像40にグラフカットを実行する(ステップS14)。
制御部14は、推論の実行によって検出された認識対象50の輪郭に基づいて初期ポリゴン51を生成する(ステップS15)。制御部14は、ステップS15の手順の実行後、図12のフローチャートの実行を終了して図11のステップS5の手順に進む。
<色相データを用いた前景抽出>
制御部14は、色相データを用いた前景抽出のモードで初期ポリゴン51を生成するために、図13に示されるフローチャートの手順を実行する。
制御部14は、前景を抽出する対象とする範囲を指定する(ステップS21)。制御部14は、指定した範囲における背景色を周辺色相として取得する(ステップS22)。制御部14は、背景を除去する(ステップS23)。制御部14は、背景を除去することによって抽出した前景の輪郭に基づいて初期ポリゴン51を生成する(ステップS24)。制御部14は、ステップS24の手順の実行後、図13のフローチャートの実行を終了して図11のステップS5の手順に進む。
<グラフカット>
制御部14は、グラフカットのモードで初期ポリゴン51を生成するために、図14に示されるフローチャートの手順を実行する。
制御部14は、マスクを生成する(ステップS31)。制御部14は、マスクに基づいてグラフカットを実行する(ステップS32)。制御部14は、グラフカットが終了したか判定する(ステップS33)。制御部14は、グラフカットが終了していない場合(ステップS33:NO)、ステップS31の手順に戻る。制御部14は、グラフカットが終了した場合(ステップS33:YES)、グラフカットによる認識対象50の抽出結果に基づいて初期ポリゴン51を生成する(ステップS34)。制御部14は、ステップS34の手順の実行後、図14のフローチャートの実行を終了して図11のステップS5の手順に進む。
制御部14は、スーパーピクセルを実行する(ステップS5)。制御部14は、スーパーピクセルによって生成したセグメント52を特定するセグメンテーション情報に基づいてポリゴンを修正する(ステップS6)。制御部14は、ラベル情報を付与する(ステップS7)。制御部14は、他に教師データを生成する入力画像40が存在するか、つまり次の画像データが存在するか判定する(ステップS8)。制御部14は、次の入力画像40が存在する場合(ステップS8:YES)、ステップS2の手順に戻って次の入力画像40を処理する。制御部14は、次の入力画像40が存在しない場合(ステップS8:NO)、入力画像40に対して入力画像40において生成したポリゴンのデータとポリゴンに付与したラベル情報とを関連づけて教師データを生成する(ステップS9)。制御部14は、ステップS9の手順の実行後、図11のフローチャートの手順の実行を終了する。
制御部14は、ステップS7のラベル情報の付与の手順をステップS1の後からステップS6の後までのどのタイミングで実行してもよい。制御部14は、初期ポリゴン51を生成する前にラベル情報を付与する場合、入力画像40にラベル情報を付与する。制御部14は、ラベル情報を付与した入力画像40において初期ポリゴン51を生成する場合、生成した初期ポリゴン51に対して入力画像40に付与したラベル情報を付与する。制御部14は、入力画像40に付与したラベル情報に適合する認識対象50を抽出し、抽出した認識対象50について初期ポリゴン51を生成してもよい。
制御部14は、図11のステップS4の初期ポリゴン51を生成する手順を、ステップS5のスーパーピクセルを実行する手順より後で実行してもよい。この場合、制御部14は、セグメンテーション情報に基づいて初期ポリゴン51を生成できる。
制御部14は、ポリゴンを修正する際に、画像全体に再度スーパーピクセルを実行してもよい。例えば、制御部14がステップS5の手順において入力画像40の一部の範囲だけにスーパーピクセルを実行した場合、スーパーピクセルの範囲外にセグメンテーション情報が関連づけられない。したがって、制御部14がポリゴンを修正する際に画像全体に再度スーパーピクセルを実行することは、種々の実施態様において想定され得る。
(小括)
以上述べてきたように、本実施形態に係る教師データ生成装置10及び教師データ生成方法によれば、初期ポリゴン51を生成して修正することによって、認識対象50の輪郭を表すポリゴンを描画するためにかかる時間が短縮される。また、認識対象50を前景として認識して初期ポリゴン51を生成するためのユーザ操作が減少する。
また、入力された入力画像40又は前処理画像41に対してスーパーピクセルを実行することによって設定されるセグメント52を特定するセグメンテーション情報に基づいて初期ポリゴン51が修正される。このようにすることで、修正ポリゴン55によって表される輪郭が認識対象50の真の輪郭に近づくように、高精度に初期ポリゴン51が修正される。また、初期ポリゴン51の修正にかかる時間が短縮される。
また、スーパーピクセルを初期ポリゴン51又は認識対象50の周辺の範囲に限定して実行することによって、スーパーピクセルの処理負荷が低減される。その結果、計算コストが削減され得る。
比較例として、認識対象50としての物体の輪郭を表すポリゴンデータをユーザの手作業によって生成する構成が考えられる。この場合、物体の輪郭が複雑であるほど、ユーザが輪郭を指定する作業量及び作業時間が増大する。本実施形態に係る教師データ生成装置10及び教師データ生成方法によれば、初期ポリゴン51の生成とその修正によって、ユーザの作業なしでも高精度でポリゴンが生成され得る。その結果、ユーザの作業量及び作業時間が低減され得る。
また、比較例として、連続画像に対して背景差分と深層学習とを組み合わせたアノテーションを実行することによって教師データを生成する構成が考えられる。しかし、この構成は、対象物が移動する連続画像であれば有効である一方、対象物が異なる複数の画像を含む場合、又は、物体が写っていない背景画像がない場合において有用でない。本実施形態に係る教師データ生成装置10及び教師データ生成方法によれば、ポリゴンが高精度で生成され得る。その結果、同一ではない対象物に対するロバスト性が向上し得る。
また、比較例として、任意の背景から前景の輪郭を高精度で検出することによって教師データを生成する構成が考えられる。しかし、この構成において、1つの画像に複数の物体の画像が含まれる場合、前景領域の形状を入力する作業が増大する。本実施形態に係る教師データ生成装置10及び教師データ生成方法によれば、初期ポリゴン51の生成によって前景領域の形状の入力が省略され得る。その結果、ユーザの作業量及び作業時間が低減され得る。
また、比較例として、機械学習モデルを用いて画像の各画素のセグメンテーションにラベルを付与する構成が考えられる。しかし、この構成において、ラベルの付与の精度を高めるために、教師データを高精度に作成する必要がある。高精度な教師データを作成するために、初期の教師データを準備する作業時間及び作業コスト、並びに、機械学習モデルを生成するための学習を実行する計算負荷及び計算コストが発生する。本実施形態に係る教師データ生成装置10及び教師データ生成方法によれば、初期ポリゴン51の生成とその修正によって、ユーザの作業なしでも高精度でポリゴンが生成され得る。その結果、ユーザの作業量及び作業時間が低減され得る。
(他の実施形態)
以下、他の実施形態が説明される。
<初期ポリゴン51の修正データのフィードバック>
教師データ生成装置10は、複数の入力画像40それぞれについて教師データを順次生成することがある。この場合、教師データ生成装置10は、早い順番で処理した入力画像40における初期ポリゴン51の修正データを、後の順番で処理する入力画像40における初期ポリゴン51の生成にフィードバックしてよい。このようにすることで、初期ポリゴン51の精度が高められる。その結果、初期ポリゴン51の修正にかかる作業負荷又は計算負荷が低減し得る。
例えば、入力画像40において生成した初期ポリゴン51に認識対象50である物体の影が含まれていたと仮定する。この場合、教師データ生成装置10は、制御部14のポリゴン修正部144において初期ポリゴン51から影の部分を削除して修正ポリゴン55を生成する。制御部14は、削除した影の部分の画像を修正データとして特徴化し、後の順番で処理する入力画像40における初期ポリゴン51の生成に、修正データを特徴化したデータをフィードバックする。制御部14は、影の部分の画像を修正データとして特徴化したデータに基づいて、入力画像40から影の部分を検出し、初期ポリゴン51を生成する際に最初から影の部分を除去できる。
影の部分等の修正した部分の画像を含む修正データを特徴化したデータは、例えば、画像の画素値情報、テキスチャ情報、又は形状情報等を含む。初期ポリゴン51の修正データを特徴化したデータは、特徴化データとも称される。特徴化データは、制御部14の画像処理部141において画像処理の種類を選択したり画像処理のパラメータを決定したりする条件としても使用され得る。つまり、画像処理部141は、ポリゴンデータの修正データに基づいて、後で処理する入力画像40に対する前処理に適用するパラメータを修正してよい。前処理に適用するパラメータは、前処理パラメータ値とも称される。
制御部14は、教師データを作成する場合に、同一種類の物体の画像を含む複数の入力画像40を処理することがある。制御部14が機械学習による推論で、同一種類の物体の画像を含む複数の入力画像40を処理して初期ポリゴン51を生成する場合、推論に用いる機械学習モデルとして、入力画像40に対して過学習となっている機械学習モデルが使用され得る。例えば、制御部14は、次の入力画像40の処理を開始する際に所定条件を満たす場合に、既に処理した入力画像40に基づいて生成した教師データを用いた学習によって、初期ポリゴン51の生成のために用いる機械学習モデルを生成して転移してもよい。
制御部14は、以前に実行した入力画像40の処理における初期ポリゴン51(ポリゴンデータ)と修正ポリゴン55(修正ポリゴンデータ)との差分に基づいて、次に処理する入力画像40の前処理として入力画像40を補正してもよい。また、制御部14は、以前に実行した入力画像40の処理における初期ポリゴン51(ポリゴンデータ)から修正ポリゴン55(修正ポリゴンデータ)への修正データに基づいて、次に処理する入力画像40の前処理として入力画像40を補正してもよい。
制御部14は、図15及び図16に例示されるフローチャートの手順を含む教師データ生成方法を実行することによって、以上述べてきたように初期ポリゴン51の修正データをフィードバックしてもよい。
制御部14は、入力部12を介して入力画像40を取得する(ステップS51)。制御部14は、入力画像40に対して前処理を実行する(ステップS52)。制御部14は、初期ポリゴン51の生成モードを選択する(ステップS53)。制御部14は、初期ポリゴン51を生成する(ステップS54)。制御部14は、ステップS53の手順で選択したモードで初期ポリゴン51を生成する。制御部14は、ステップS54の手順において、図12、図13又は図14のいずれかに示される手順を実行してよい。図15のステップS51からS54までの各手順は、図11のステップS1からS4までの各手順に対応する。
制御部14は、初期ポリゴン51を自動で修正する(ステップS55)。具体的に、制御部14は、現在処理中の入力画像40より前に入力画像40を処理したときの初期ポリゴン51の修正データに基づいて、初期ポリゴン51を修正してよい。制御部14は、ステップS55の手順を実行しなくてもよい。
制御部14は、スーパーピクセルを実行する(ステップS56)。制御部14は、スーパーピクセルによって生成したセグメント52を特定するセグメンテーション情報に基づいてポリゴンを修正する(ステップS57)。制御部14は、ラベル情報を付与する(ステップS58)。制御部14は、他に教師データを生成する入力画像40が存在するか、つまり次の画像データが存在するか判定する(ステップS59)。制御部14は、次の入力画像40が存在しない場合(ステップS59:NO)、入力画像40に対して入力画像40において生成したポリゴンのデータとポリゴンに付与したラベル情報とを関連づけて教師データを生成する(ステップS60)。制御部14は、ステップS60の手順の実行後、図11のフローチャートの手順の実行を終了する。図15のステップS56からS60までの各手順は、図11のステップS5からS9までの各手順に対応する。
制御部14は、次の入力画像40が存在する場合(ステップS59:YES)、前の入力画像40の処理においてポリゴンの修正があったか判定する(ステップS61)。制御部14は、前の入力画像40の処理においてポリゴンの修正が無かった場合(ステップS61:NO)、ステップS52の手順に戻って次の入力画像40を処理する。制御部14は、前の入力画像40の処理においてポリゴンの修正があった場合(ステップS61:YES)、修正データを特徴化する(ステップS62)。制御部14は、修正データを学習する(ステップS63)。制御部14は、修正データの学習によって初期ポリゴン51を生成するために用いる機械学習モデルを生成してもよい。制御部14は、ステップS63の手順の実行後、ステップS52の手順に戻って次の入力画像40を処理する。
以上述べてきたように、教師データ生成装置10は、特徴化データをフィードバックすることによって、初期ポリゴン51の精度を高めることができる。また、教師データ生成装置10は、特徴化データに基づいて初期ポリゴン51を自動修正することによって、初期ポリゴン51の精度をより一層高めることができる。また、教師データ生成装置10は、特徴化したデータに基づいて入力画像40の前処理におけるパラメータを調整することによって、認識対象50の輪郭を強調して初期ポリゴン51を検出しやすくできる。その結果、初期ポリゴン51の精度がより一層高められる。
以上、教師データ生成装置10の実施形態を説明してきたが、本開示の実施形態としては、装置を実施するための方法又はプログラムの他、プログラムが記録された記憶媒体(一例として、光ディスク、光磁気ディスク、CD-ROM、CD-R、CD-RW、磁気テープ、ハードディスク、又はメモリカード等)としての実施態様をとることも可能である。
また、プログラムの実装形態としては、コンパイラによってコンパイルされるオブジェクトコード、インタプリタにより実行されるプログラムコード等のアプリケーションプログラムに限定されることはなく、オペレーティングシステムに組み込まれるプログラムモジュール等の形態であっても良い。さらに、プログラムは、制御基板上のCPUにおいてのみ全ての処理が実施されるように構成されてもされなくてもよい。プログラムは、必要に応じて基板に付加された拡張ボード又は拡張ユニットに実装された別の処理ユニットによってその一部又は全部が実施されるように構成されてもよい。
本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は改変を行うことが可能であることに注意されたい。従って、これらの変形又は改変は本開示の範囲に含まれることに留意されたい。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。
本開示に記載された構成要件の全て、及び/又は、開示された全ての方法、又は、処理の全てのステップについては、これらの特徴が相互に排他的である組合せを除き、任意の組合せで組み合わせることができる。また、本開示に記載された特徴の各々は、明示的に否定されない限り、同一の目的、同等の目的、または類似する目的のために働く代替の特徴に置換することができる。したがって、明示的に否定されない限り、開示された特徴の各々は、包括的な一連の同一、又は、均等となる特徴の一例にすぎない。
さらに、本開示に係る実施形態は、上述した実施形態のいずれの具体的構成にも制限されるものではない。本開示に係る実施形態は、本開示に記載された全ての新規な特徴、又は、それらの組合せ、あるいは記載された全ての新規な方法、又は、処理のステップ、又は、それらの組合せに拡張することができる。
本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1の処理は、第2の処理と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
本開示に係る構成は、認識対象50の画像を含む少なくとも1つの入力画像40を取得する入力部12と、入力画像40の第1領域から認識対象50の画像と判断された部分の輪郭に沿ったポリゴンデータの生成を行う第1の処理と、入力画像40を輝度勾配に基づき領域分割したセグメント52を設定する第2の処理と、第2の処理で設定したセグメント52に基づきポリゴンデータを修正した修正ポリゴンデータの生成する制御部14とを備える画像処理装置として実現されてもよい。
10 教師データ生成装置(12:入力部、14:制御部、16:出力部、141:画像処理部、142:初期ポリゴン生成部、143:スーパーピクセル部、144:ポリゴン修正部、145:ラベル付与部、146:教師データ生成部)
40 入力画像
41 前処理画像
42 ポリゴン生成画像
43 セグメント画像
44 ポリゴン修正画像
50 認識対象
51 初期ポリゴン
52 セグメント
53 指定領域
54 削除領域
55 修正ポリゴン

Claims (23)

  1. 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
    前記教師データを出力する出力部と
    を備え
    前記制御部は、前記第1の処理において、前記入力画像に含まれる前景と背景の認識に基づいて前記ポリゴンデータの生成を行う、
    教師データ生成装置。
  2. 前記制御部は、前記第2の処理において、前記入力画像を前記セグメントに分割するスーパーピクセルを実行する、請求項1に記載の教師データ生成装置。
  3. 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
    前記教師データを出力する出力部と
    を備え
    前記制御部は、前記入力画像のうち前記認識対象を含む領域を対象として前記第2の処理を行うことによって前記セグメントを設定し、前記第2の処理を行った前記入力画像の領域における前記ポリゴンデータの作成を行う、
    教師データ生成装置。
  4. 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
    前記教師データを出力する出力部と
    を備え
    前記制御部は、前記入力画像に前記ラベル情報を付与し、前記ラベル情報に適合する前記ポリゴンデータを生成する、
    教師データ生成装置。
  5. 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
    前記教師データを出力する出力部と
    を備え
    前記制御部は、前記第1の処理において、色相情報に基づく背景除去、グラフカット、及び、第2機械学習モデルによる前記認識対象の検出の推論のうち少なくとも1つを含む所定のアルゴリズムに基づいて、前記ポリゴンデータを生成する、
    教師データ生成装置。
  6. 前記制御部は、前記所定のアルゴリズムとして、前記認識対象の検出の推論で得られた前記認識対象の輪郭をコスト関数として前記グラフカットを実行する、請求項に記載の教師データ生成装置。
  7. 前記制御部は、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータを修正した結果に基づいて、前記第2機械学習モデルを学習させる、請求項に記載の教師データ生成装置。
  8. 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
    前記教師データを出力する出力部と
    を備え
    前記制御部は、前記ポリゴンデータと前記修正ポリゴンデータの差分又は前記修正ポリゴンデータへの修正データに基づき、入力される前記入力画像を補正する、
    教師データ生成装置。
  9. 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
    前記教師データを出力する出力部と
    を備え
    前記制御部は、ポリゴンデータの修正データに基づいて、後で処理される前記入力画像に対する前処理に適用する前処理パラメータ値を修正する、
    教師データ生成装置。
  10. 前記制御部は、生成された前記ポリゴンデータに対応する部分を含む前記入力画像の第2領域に前記第2の処理を行い、前記第2の処理で設定されたセグメントに基づき修正して生成した前記修正ポリゴンデータに対応する前記入力画像の部分に対して前記ラベル情報の付与を実行する、請求項1から9までのいずれか一項に記載の教師データ生成装置。
  11. 前記制御部は、前記入力画像のうち前記ポリゴンデータを生成した部分を対象として前記第2の処理を実行する、請求項10に記載の教師データ生成装置。
  12. 前記制御部は、前記第2領域を前記第1領域よりも小さく設定する、請求項10に記載の教師データ生成装置。
  13. 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
    前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
    前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
    前記入力画像に対してラベル情報を付与することと、
    教師データを生成して出力することと
    前記第1の処理において、前記入力画像に含まれる前景と背景の認識に基づいて前記ポリゴンデータの生成を行うことと
    を含む教師データ生成方法。
  14. 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
    前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
    前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
    前記入力画像に対してラベル情報を付与することと、
    教師データを生成して出力することと
    前記入力画像のうち前記認識対象を含む領域を対象として前記第2の処理を行うことによって前記セグメントを設定し、前記第2の処理を行った前記入力画像の領域における前記ポリゴンデータの作成を行うことと
    を含む教師データ生成方法。
  15. 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
    前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
    前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
    前記入力画像に対してラベル情報を付与することと、
    教師データを生成して出力することと
    前記入力画像に前記ラベル情報を付与し、前記ラベル情報に適合する前記ポリゴンデータを生成することと
    を含む教師データ生成方法。
  16. 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
    前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
    前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
    前記入力画像に対してラベル情報を付与することと、
    教師データを生成して出力することと
    前記第1の処理において、色相情報に基づく背景除去、グラフカット、及び、第2機械学習モデルによる前記認識対象の検出の推論のうち少なくとも1つを含む所定のアルゴリズムに基づいて、前記ポリゴンデータを生成することと
    を含む教師データ生成方法。
  17. 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
    前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
    前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
    前記入力画像に対してラベル情報を付与することと、
    教師データを生成して出力することと
    前記ポリゴンデータと前記修正ポリゴンデータの差分又は前記修正ポリゴンデータへの修正データに基づき、入力される前記入力画像を補正することと
    を含む教師データ生成方法。
  18. 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
    前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
    前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
    前記入力画像に対してラベル情報を付与することと、
    教師データを生成して出力することと
    ポリゴンデータの修正データに基づいて、後で処理される前記入力画像に対する前処理に適用する前処理パラメータ値を修正することと
    を含む教師データ生成方法。
  19. 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成とを実行する制御部と、を備え
    前記制御部は、前記第1の処理において、前記入力画像に含まれる前景と背景の認識に基づいて前記ポリゴンデータの生成を行う、
    画像処理装置。
  20. 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成とを実行する制御部と、を備え
    前記制御部は、前記入力画像のうち前記認識対象を含む領域を対象として前記第2の処理を行うことによって前記セグメントを設定し、前記第2の処理を行った前記入力画像の領域における前記ポリゴンデータの作成を行う、
    画像処理装置。
  21. 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成とを実行する制御部と、を備え
    前記制御部は、前記第1の処理において、色相情報に基づく背景除去、グラフカット、及び、第2機械学習モデルによる前記認識対象の検出の推論のうち少なくとも1つを含む所定のアルゴリズムに基づいて、前記ポリゴンデータを生成する、
    画像処理装置。
  22. 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成とを実行する制御部と、を備え
    前記制御部は、前記ポリゴンデータと前記修正ポリゴンデータの差分又は前記修正ポリゴンデータへの修正データに基づき、入力される前記入力画像を補正する、
    画像処理装置。
  23. 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
    前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成とを実行する制御部と、を備え
    前記制御部は、ポリゴンデータの修正データに基づいて、後で処理される前記入力画像に対する前処理に適用する前処理パラメータ値を修正する、
    画像処理装置。
JP2023523453A 2021-05-24 2022-05-20 教師データ生成装置、教師データ生成方法、及び画像処理装置 Active JP7467773B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021087206 2021-05-24
JP2021087206 2021-05-24
PCT/JP2022/021023 WO2022249997A1 (ja) 2021-05-24 2022-05-20 教師データ生成装置、教師データ生成方法、及び画像処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024060418A Division JP2024088718A (ja) 2021-05-24 2024-04-03 教師データ生成装置、教師データ生成方法、及び画像処理装置

Publications (3)

Publication Number Publication Date
JPWO2022249997A1 JPWO2022249997A1 (ja) 2022-12-01
JPWO2022249997A5 JPWO2022249997A5 (ja) 2024-01-31
JP7467773B2 true JP7467773B2 (ja) 2024-04-15

Family

ID=84229873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023523453A Active JP7467773B2 (ja) 2021-05-24 2022-05-20 教師データ生成装置、教師データ生成方法、及び画像処理装置

Country Status (4)

Country Link
EP (1) EP4350610A1 (ja)
JP (1) JP7467773B2 (ja)
CN (1) CN117377985A (ja)
WO (1) WO2022249997A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085233A (ja) 2010-10-14 2012-04-26 Sharp Corp 映像処理装置、映像処理方法、及びプログラム
JP2017220098A (ja) 2016-06-09 2017-12-14 日本電信電話株式会社 画像処理装置、画像処理方法、画像処理プログラム及び画像認識システム
JP2018510320A (ja) 2014-12-09 2018-04-12 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se 光学検出器
JP2019061658A (ja) 2017-08-02 2019-04-18 株式会社Preferred Networks 領域判別器訓練方法、領域判別装置、領域判別器訓練装置及びプログラム
CN111489357A (zh) 2019-01-29 2020-08-04 广州市百果园信息技术有限公司 一种图像分割方法、装置、设备及存储介质
WO2020174862A1 (ja) 2019-02-28 2020-09-03 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101535A (ja) 2017-11-29 2019-06-24 コニカミノルタ株式会社 教師データ作成装置および該方法ならびに画像セグメンテーション装置および該方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085233A (ja) 2010-10-14 2012-04-26 Sharp Corp 映像処理装置、映像処理方法、及びプログラム
JP2018510320A (ja) 2014-12-09 2018-04-12 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se 光学検出器
JP2017220098A (ja) 2016-06-09 2017-12-14 日本電信電話株式会社 画像処理装置、画像処理方法、画像処理プログラム及び画像認識システム
JP2019061658A (ja) 2017-08-02 2019-04-18 株式会社Preferred Networks 領域判別器訓練方法、領域判別装置、領域判別器訓練装置及びプログラム
CN111489357A (zh) 2019-01-29 2020-08-04 广州市百果园信息技术有限公司 一种图像分割方法、装置、设备及存储介质
WO2020174862A1 (ja) 2019-02-28 2020-09-03 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム

Also Published As

Publication number Publication date
WO2022249997A1 (ja) 2022-12-01
JPWO2022249997A1 (ja) 2022-12-01
CN117377985A (zh) 2024-01-09
EP4350610A1 (en) 2024-04-10

Similar Documents

Publication Publication Date Title
KR101901184B1 (ko) 깊이 영상을 사용한 컬러 영상 처리 장치 및 방법
US10922801B2 (en) Channel-based binarization of color
WO2012074361A1 (en) Method of image segmentation using intensity and depth information
CN111753762B (zh) 视频中关键标识的识别方法、装置、设备以及存储介质
JP2006318474A (ja) 画像シーケンス内のオブジェクトを追跡するための方法及び装置
WO2019011342A1 (zh) 布料识别的方法、设备、电子设备及储存介质
EP2808828A2 (en) Image matching method, image matching device, model template generation method, model template generation device, and program
CN105404846A (zh) 一种图像处理方法及装置
JP7173309B2 (ja) 学習方法、学習プログラム、および、学習装置
CN112270745B (zh) 一种图像生成方法、装置、设备以及存储介质
EP2919164A1 (en) Image processing apparatus and segmentation method
US20220051387A1 (en) Image processing method, image processing apparatus, and program
CN106331746B (zh) 用于识别视频文件中的水印位置的方法和装置
JP7467773B2 (ja) 教師データ生成装置、教師データ生成方法、及び画像処理装置
CN112307923A (zh) 一种分区域的表情迁移方法和系统
JP2024088718A (ja) 教師データ生成装置、教師データ生成方法、及び画像処理装置
JP2003303346A (ja) 目標追跡方法、目標追跡装置、目標追跡プログラム、並びにこのプログラムを記録した記録媒体
CN114550173A (zh) 图像预处理方法、装置、电子设备以及可读存储介质
US20240221197A1 (en) Teaching data generation device, teaching data generation method, and image processing device
JP2020135653A (ja) 映像補正装置及びそのプログラム
KR101796558B1 (ko) 모션모델에 기반한 고속 깊이영역 확장방법 및 장치
JP2001209808A (ja) 物体抽出システムと方法並びに物体抽出用プログラムを記憶した記憶媒体
JP2022147713A (ja) 画像生成装置、学習装置、及び、画像生成方法
JP5786838B2 (ja) 画像領域分割装置、方法、およびプログラム
JP2005217984A (ja) 画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231228

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150