JP7467773B2 - 教師データ生成装置、教師データ生成方法、及び画像処理装置 - Google Patents
教師データ生成装置、教師データ生成方法、及び画像処理装置 Download PDFInfo
- Publication number
- JP7467773B2 JP7467773B2 JP2023523453A JP2023523453A JP7467773B2 JP 7467773 B2 JP7467773 B2 JP 7467773B2 JP 2023523453 A JP2023523453 A JP 2023523453A JP 2023523453 A JP2023523453 A JP 2023523453A JP 7467773 B2 JP7467773 B2 JP 7467773B2
- Authority
- JP
- Japan
- Prior art keywords
- input image
- generating
- polygon data
- data
- recognition target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 164
- 238000012545 processing Methods 0.000 title claims description 59
- 238000010801 machine learning Methods 0.000 claims description 34
- 238000012937 correction Methods 0.000 claims description 24
- 238000007781 pre-processing Methods 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 12
- 238000012986 modification Methods 0.000 claims description 10
- 230000004048 modification Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000012512 characterization method Methods 0.000 description 5
- 238000012217 deletion Methods 0.000 description 5
- 230000037430 deletion Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Probability & Statistics with Applications (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Description
本開示の一実施形態に係る教師データ生成装置10は、画素を有する画像データであって、認識対象50(図2等参照)の画像を含む画像データに対して画素の単位でセグメンテーションを行う機械学習モデルを生成するための教師データを作成する。セグメンテーションを行う機械学習モデルは、第1機械学習モデルとも称される。教師データ生成装置10は、認識対象50の画像を含む少なくとも1つの入力画像40(図2等参照)に対して認識対象50の輪郭を表すポリゴンを関連づけた情報を、教師データとして生成する。
教師データ生成装置10の具体的な動作例が以下説明される。
入力部12は、図2に例示される入力画像40の入力を受け付け、制御部14に出力する。入力画像40は、認識対象50の画像を含み、教師データの生成のために用いられる。入力部12は、入力画像40として、1枚の画像の入力を受け付けてもよいし、2枚以上の画像の入力を受け付けてもよい。
制御部14の画像処理部141は、入力部12から取得した入力画像40に含まれるノイズの低減、及び、認識対象50の輪郭の強調を目的とした画像処理を実行する。画像処理部141は、例えば、コントラスト補正、ガンマ補正、バイラテラルフィルタ、又はガウシアンフィルタ等の処理を実行してよい。画像処理部141は、取得した入力画像40の内容、又は、画像処理の目的に応じて、認識対象50の輪郭が強調されるように、処理を選択したり処理のパラメータを調整したりする。画像処理部141が実行する処理は、前処理とも称される。入力画像40に対して前処理を実行して得られた画像は、前処理画像41とも称される。前処理画像41が図3に例示される。
制御部14の初期ポリゴン生成部142は、図4に例示されるように、前処理画像41に対して初期ポリゴン51を生成する。初期ポリゴン51は、認識対象50の輪郭を表す線である。初期ポリゴン51を生成した画像は、ポリゴン生成画像42とも称される。初期ポリゴン生成部142は、前処理が実行されない場合、入力画像40に対して初期ポリゴン51を生成する。初期ポリゴン51を生成する処理は、第1の処理に含まれる。初期ポリゴン生成部142は、初期ポリゴン51を生成するために、以下に述べる処理を実行してよい。
初期ポリゴン生成部142は、事前学習済みの機械学習モデルを用いて、入力された入力画像40又は前処理画像41に対して機械学習による物体検出の推論を実行し、出力された輪郭情報を初期ポリゴン51として使用してよい。初期ポリゴン51を生成するための推論に用いられる機械学習モデルは、第2機械学習モデルとも称される。初期ポリゴン生成部142は、認識対象50の輪郭が複雑である場合に真の輪郭が出力されない可能性を考慮して、機械学習の推論によって得られた初期ポリゴン51をコスト関数として、ポリゴン生成画像42に対するグラフカット処理を更に実行してよい。初期ポリゴン生成部142は、グラフカット処理によって得られるデータを初期ポリゴン51として使用してよい。
輪郭抽出において、複数の認識対象50を1つのクラスとして学習させて前景抽出に特化したモデルを事前学習済みモデルとして用いることが有効であると知られている。そこで、初期ポリゴン生成部142は、入力画像40又は前処理画像41に対して領域を指定し、指定した領域の背景色データを抽出し、背景色データの色相値を用いて得られる前景の輪郭を初期ポリゴン51として使用してよい。このように前景を抽出する手法は、クロマキー合成等で知られる一般的な手法である。画像の背景が単純な構造である場合、認識対象50としての前景の物体が複数ある場合においても高速に輪郭が抽出され得る。
初期ポリゴン生成部142は、ユーザが作成したコスト関数をグラフカット処理にかけて、得られたデータを初期ポリゴン51として使用してもよい。
教師データ生成装置10は、初期ポリゴン生成部142がどの処理を実行するか、ユーザが指定する入力を入力部12で受け付けてよい。入力部12は、ユーザインタフェースを含んでよい。例えば、入力部12は、図5に示されるような選択画面をユーザに提示してユーザから処理を選択する入力を受け付けてもよい。図5に例示される各モードは、上述した処理のどれを実行するか指定する情報に関連づけられてよいし、上述した各処理を実行する際に指定するパラメータに関連づけられてもよい。
スーパーピクセルは、入力画像40の輝度勾配が高い箇所を抽出し、輪郭線に沿って画像内を複数領域に分割する画像処理手法として知られている。制御部14のスーパーピクセル部143は、図6及び図7に例示されるように、入力画像40の少なくとも一部を含む指定領域53に対してスーパーピクセルを実行してセグメント52に分割する。スーパーピクセル部143は、生成したセグメント52の境界を特定するセグメンテーション情報を、画像に関連づける。セグメンテーション情報が関連づけられた画像は、セグメント画像43とも称される。スーパーピクセルの実行は、第2の処理に含まれる。
制御部14のポリゴン修正部144は、初期ポリゴン51に基づいて、初期ポリゴン51に対するセグメント52の追加、又は、初期ポリゴン51からの一部のセグメント52の削除等を実行する。ポリゴン修正部144は、初期ポリゴン51が認識対象50の輪郭を正確に捉えていない箇所について、ユーザの操作に基づいて初期ポリゴン51を修正したり、ラベルを付与しない初期ポリゴン51のデータを削除したりする。例えば図8に示されるように、初期ポリゴン51が認識対象50の輪郭として認識対象50の影も含んでいる場合、ポリゴン修正部144は、星印が付されたセグメント52を削除対象領域54として指定し、初期ポリゴン51から削除する。ポリゴン修正部144は、削除対象領域54を初期ポリゴン51から削除することによって、図9に例示されるように認識対象50の輪郭を正確にとらえた修正ポリゴン55を生成できる。修正ポリゴン55の情報が関連づけられた画像は、ポリゴン修正画像44とも称される。なお、初期ポリゴン51が、認識対象50の輪郭を完全に含んでいない場合、すなわち星印が付されたセグメント52が認識対象50の物体の輪郭を形成している場合には、ポリゴン修正部144は、星印が付されたセグメント52を初期ポリゴン51として追加して修正ポリゴン55を生成してもよい。
教師データ生成装置10の制御部14は、図11に例示されるフローチャートの手順を含む教師データ生成方法を実行してもよい。教師データ生成方法は、教師データ生成装置10の制御部14を構成するプロセッサに実行させる教師データ生成プログラムとして実現されてもよい。教師データ生成プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。
制御部14は、機械学習による推論のモードで初期ポリゴン51を生成するために、図12に示されるフローチャートの手順を実行する。
制御部14は、色相データを用いた前景抽出のモードで初期ポリゴン51を生成するために、図13に示されるフローチャートの手順を実行する。
制御部14は、グラフカットのモードで初期ポリゴン51を生成するために、図14に示されるフローチャートの手順を実行する。
以上述べてきたように、本実施形態に係る教師データ生成装置10及び教師データ生成方法によれば、初期ポリゴン51を生成して修正することによって、認識対象50の輪郭を表すポリゴンを描画するためにかかる時間が短縮される。また、認識対象50を前景として認識して初期ポリゴン51を生成するためのユーザ操作が減少する。
以下、他の実施形態が説明される。
教師データ生成装置10は、複数の入力画像40それぞれについて教師データを順次生成することがある。この場合、教師データ生成装置10は、早い順番で処理した入力画像40における初期ポリゴン51の修正データを、後の順番で処理する入力画像40における初期ポリゴン51の生成にフィードバックしてよい。このようにすることで、初期ポリゴン51の精度が高められる。その結果、初期ポリゴン51の修正にかかる作業負荷又は計算負荷が低減し得る。
40 入力画像
41 前処理画像
42 ポリゴン生成画像
43 セグメント画像
44 ポリゴン修正画像
50 認識対象
51 初期ポリゴン
52 セグメント
53 指定領域
54 削除領域
55 修正ポリゴン
Claims (23)
- 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
前記教師データを出力する出力部と
を備え、
前記制御部は、前記第1の処理において、前記入力画像に含まれる前景と背景の認識に基づいて前記ポリゴンデータの生成を行う、
教師データ生成装置。 - 前記制御部は、前記第2の処理において、前記入力画像を前記セグメントに分割するスーパーピクセルを実行する、請求項1に記載の教師データ生成装置。
- 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
前記教師データを出力する出力部と
を備え、
前記制御部は、前記入力画像のうち前記認識対象を含む領域を対象として前記第2の処理を行うことによって前記セグメントを設定し、前記第2の処理を行った前記入力画像の領域における前記ポリゴンデータの作成を行う、
教師データ生成装置。 - 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
前記教師データを出力する出力部と
を備え、
前記制御部は、前記入力画像に前記ラベル情報を付与し、前記ラベル情報に適合する前記ポリゴンデータを生成する、
教師データ生成装置。 - 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
前記教師データを出力する出力部と
を備え、
前記制御部は、前記第1の処理において、色相情報に基づく背景除去、グラフカット、及び、第2機械学習モデルによる前記認識対象の検出の推論のうち少なくとも1つを含む所定のアルゴリズムに基づいて、前記ポリゴンデータを生成する、
教師データ生成装置。 - 前記制御部は、前記所定のアルゴリズムとして、前記認識対象の検出の推論で得られた前記認識対象の輪郭をコスト関数として前記グラフカットを実行する、請求項5に記載の教師データ生成装置。
- 前記制御部は、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータを修正した結果に基づいて、前記第2機械学習モデルを学習させる、請求項5に記載の教師データ生成装置。
- 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
前記教師データを出力する出力部と
を備え、
前記制御部は、前記ポリゴンデータと前記修正ポリゴンデータの差分又は前記修正ポリゴンデータへの修正データに基づき、入力される前記入力画像を補正する、
教師データ生成装置。 - 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成と、前記入力画像に対するラベル情報の付与とを実行し、教師データを生成する制御部と、
前記教師データを出力する出力部と
を備え、
前記制御部は、ポリゴンデータの修正データに基づいて、後で処理される前記入力画像に対する前処理に適用する前処理パラメータ値を修正する、
教師データ生成装置。 - 前記制御部は、生成された前記ポリゴンデータに対応する部分を含む前記入力画像の第2領域に前記第2の処理を行い、前記第2の処理で設定されたセグメントに基づき修正して生成した前記修正ポリゴンデータに対応する前記入力画像の部分に対して前記ラベル情報の付与を実行する、請求項1から9までのいずれか一項に記載の教師データ生成装置。
- 前記制御部は、前記入力画像のうち前記ポリゴンデータを生成した部分を対象として前記第2の処理を実行する、請求項10に記載の教師データ生成装置。
- 前記制御部は、前記第2領域を前記第1領域よりも小さく設定する、請求項10に記載の教師データ生成装置。
- 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
前記入力画像に対してラベル情報を付与することと、
教師データを生成して出力することと、
前記第1の処理において、前記入力画像に含まれる前景と背景の認識に基づいて前記ポリゴンデータの生成を行うことと
を含む教師データ生成方法。 - 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
前記入力画像に対してラベル情報を付与することと、
教師データを生成して出力することと、
前記入力画像のうち前記認識対象を含む領域を対象として前記第2の処理を行うことによって前記セグメントを設定し、前記第2の処理を行った前記入力画像の領域における前記ポリゴンデータの作成を行うことと
を含む教師データ生成方法。 - 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
前記入力画像に対してラベル情報を付与することと、
教師データを生成して出力することと、
前記入力画像に前記ラベル情報を付与し、前記ラベル情報に適合する前記ポリゴンデータを生成することと
を含む教師データ生成方法。 - 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
前記入力画像に対してラベル情報を付与することと、
教師データを生成して出力することと、
前記第1の処理において、色相情報に基づく背景除去、グラフカット、及び、第2機械学習モデルによる前記認識対象の検出の推論のうち少なくとも1つを含む所定のアルゴリズムに基づいて、前記ポリゴンデータを生成することと
を含む教師データ生成方法。 - 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
前記入力画像に対してラベル情報を付与することと、
教師データを生成して出力することと、
前記ポリゴンデータと前記修正ポリゴンデータの差分又は前記修正ポリゴンデータへの修正データに基づき、入力される前記入力画像を補正することと
を含む教師データ生成方法。 - 認識対象の画像を含む少なくとも1つの入力画像を取得することと、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理を実行することと、
前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理を実行することと、
前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータを生成することと、
前記入力画像に対してラベル情報を付与することと、
教師データを生成して出力することと、
ポリゴンデータの修正データに基づいて、後で処理される前記入力画像に対する前処理に適用する前処理パラメータ値を修正することと
を含む教師データ生成方法。 - 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成とを実行する制御部と、を備え、
前記制御部は、前記第1の処理において、前記入力画像に含まれる前景と背景の認識に基づいて前記ポリゴンデータの生成を行う、
画像処理装置。 - 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成とを実行する制御部と、を備え、
前記制御部は、前記入力画像のうち前記認識対象を含む領域を対象として前記第2の処理を行うことによって前記セグメントを設定し、前記第2の処理を行った前記入力画像の領域における前記ポリゴンデータの作成を行う、
画像処理装置。 - 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成とを実行する制御部と、を備え、
前記制御部は、前記第1の処理において、色相情報に基づく背景除去、グラフカット、及び、第2機械学習モデルによる前記認識対象の検出の推論のうち少なくとも1つを含む所定のアルゴリズムに基づいて、前記ポリゴンデータを生成する、
画像処理装置。 - 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成とを実行する制御部と、を備え、
前記制御部は、前記ポリゴンデータと前記修正ポリゴンデータの差分又は前記修正ポリゴンデータへの修正データに基づき、入力される前記入力画像を補正する、
画像処理装置。 - 認識対象の画像を含む少なくとも1つの入力画像を取得する入力部と、
前記入力画像の第1領域から前記認識対象と判断された部分の輪郭に沿った外縁を有するとともに前記認識対象と判断された前記部分を示すポリゴンデータの生成を行う第1の処理と、前記入力画像を輝度勾配に基づき領域分割したセグメントを設定する第2の処理と、前記第2の処理で設定したセグメントに基づき前記ポリゴンデータの前記外縁を修正した修正ポリゴンデータの生成とを実行する制御部と、を備え、
前記制御部は、ポリゴンデータの修正データに基づいて、後で処理される前記入力画像に対する前処理に適用する前処理パラメータ値を修正する、
画像処理装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021087206 | 2021-05-24 | ||
JP2021087206 | 2021-05-24 | ||
PCT/JP2022/021023 WO2022249997A1 (ja) | 2021-05-24 | 2022-05-20 | 教師データ生成装置、教師データ生成方法、及び画像処理装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024060418A Division JP2024088718A (ja) | 2021-05-24 | 2024-04-03 | 教師データ生成装置、教師データ生成方法、及び画像処理装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022249997A1 JPWO2022249997A1 (ja) | 2022-12-01 |
JPWO2022249997A5 JPWO2022249997A5 (ja) | 2024-01-31 |
JP7467773B2 true JP7467773B2 (ja) | 2024-04-15 |
Family
ID=84229873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023523453A Active JP7467773B2 (ja) | 2021-05-24 | 2022-05-20 | 教師データ生成装置、教師データ生成方法、及び画像処理装置 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP4350610A1 (ja) |
JP (1) | JP7467773B2 (ja) |
CN (1) | CN117377985A (ja) |
WO (1) | WO2022249997A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012085233A (ja) | 2010-10-14 | 2012-04-26 | Sharp Corp | 映像処理装置、映像処理方法、及びプログラム |
JP2017220098A (ja) | 2016-06-09 | 2017-12-14 | 日本電信電話株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及び画像認識システム |
JP2018510320A (ja) | 2014-12-09 | 2018-04-12 | ビーエーエスエフ ソシエタス・ヨーロピアBasf Se | 光学検出器 |
JP2019061658A (ja) | 2017-08-02 | 2019-04-18 | 株式会社Preferred Networks | 領域判別器訓練方法、領域判別装置、領域判別器訓練装置及びプログラム |
CN111489357A (zh) | 2019-01-29 | 2020-08-04 | 广州市百果园信息技术有限公司 | 一种图像分割方法、装置、设备及存储介质 |
WO2020174862A1 (ja) | 2019-02-28 | 2020-09-03 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理システム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019101535A (ja) | 2017-11-29 | 2019-06-24 | コニカミノルタ株式会社 | 教師データ作成装置および該方法ならびに画像セグメンテーション装置および該方法 |
-
2022
- 2022-05-20 WO PCT/JP2022/021023 patent/WO2022249997A1/ja active Application Filing
- 2022-05-20 EP EP22811267.8A patent/EP4350610A1/en active Pending
- 2022-05-20 CN CN202280037072.6A patent/CN117377985A/zh active Pending
- 2022-05-20 JP JP2023523453A patent/JP7467773B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012085233A (ja) | 2010-10-14 | 2012-04-26 | Sharp Corp | 映像処理装置、映像処理方法、及びプログラム |
JP2018510320A (ja) | 2014-12-09 | 2018-04-12 | ビーエーエスエフ ソシエタス・ヨーロピアBasf Se | 光学検出器 |
JP2017220098A (ja) | 2016-06-09 | 2017-12-14 | 日本電信電話株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及び画像認識システム |
JP2019061658A (ja) | 2017-08-02 | 2019-04-18 | 株式会社Preferred Networks | 領域判別器訓練方法、領域判別装置、領域判別器訓練装置及びプログラム |
CN111489357A (zh) | 2019-01-29 | 2020-08-04 | 广州市百果园信息技术有限公司 | 一种图像分割方法、装置、设备及存储介质 |
WO2020174862A1 (ja) | 2019-02-28 | 2020-09-03 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
WO2022249997A1 (ja) | 2022-12-01 |
JPWO2022249997A1 (ja) | 2022-12-01 |
CN117377985A (zh) | 2024-01-09 |
EP4350610A1 (en) | 2024-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101901184B1 (ko) | 깊이 영상을 사용한 컬러 영상 처리 장치 및 방법 | |
US10922801B2 (en) | Channel-based binarization of color | |
WO2012074361A1 (en) | Method of image segmentation using intensity and depth information | |
CN111753762B (zh) | 视频中关键标识的识别方法、装置、设备以及存储介质 | |
JP2006318474A (ja) | 画像シーケンス内のオブジェクトを追跡するための方法及び装置 | |
WO2019011342A1 (zh) | 布料识别的方法、设备、电子设备及储存介质 | |
EP2808828A2 (en) | Image matching method, image matching device, model template generation method, model template generation device, and program | |
CN105404846A (zh) | 一种图像处理方法及装置 | |
JP7173309B2 (ja) | 学習方法、学習プログラム、および、学習装置 | |
CN112270745B (zh) | 一种图像生成方法、装置、设备以及存储介质 | |
EP2919164A1 (en) | Image processing apparatus and segmentation method | |
US20220051387A1 (en) | Image processing method, image processing apparatus, and program | |
CN106331746B (zh) | 用于识别视频文件中的水印位置的方法和装置 | |
JP7467773B2 (ja) | 教師データ生成装置、教師データ生成方法、及び画像処理装置 | |
CN112307923A (zh) | 一种分区域的表情迁移方法和系统 | |
JP2024088718A (ja) | 教師データ生成装置、教師データ生成方法、及び画像処理装置 | |
JP2003303346A (ja) | 目標追跡方法、目標追跡装置、目標追跡プログラム、並びにこのプログラムを記録した記録媒体 | |
CN114550173A (zh) | 图像预处理方法、装置、电子设备以及可读存储介质 | |
US20240221197A1 (en) | Teaching data generation device, teaching data generation method, and image processing device | |
JP2020135653A (ja) | 映像補正装置及びそのプログラム | |
KR101796558B1 (ko) | 모션모델에 기반한 고속 깊이영역 확장방법 및 장치 | |
JP2001209808A (ja) | 物体抽出システムと方法並びに物体抽出用プログラムを記憶した記憶媒体 | |
JP2022147713A (ja) | 画像生成装置、学習装置、及び、画像生成方法 | |
JP5786838B2 (ja) | 画像領域分割装置、方法、およびプログラム | |
JP2005217984A (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231122 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231228 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7467773 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |