JP7325637B2 - データ増強基盤スタイル分析モデル学習装置及び方法 - Google Patents
データ増強基盤スタイル分析モデル学習装置及び方法 Download PDFInfo
- Publication number
- JP7325637B2 JP7325637B2 JP2022531444A JP2022531444A JP7325637B2 JP 7325637 B2 JP7325637 B2 JP 7325637B2 JP 2022531444 A JP2022531444 A JP 2022531444A JP 2022531444 A JP2022531444 A JP 2022531444A JP 7325637 B2 JP7325637 B2 JP 7325637B2
- Authority
- JP
- Japan
- Prior art keywords
- spatial image
- spatial
- generating
- data
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 37
- 238000013434 data augmentation Methods 0.000 title claims description 33
- 238000000034 method Methods 0.000 title claims description 21
- 230000006870 function Effects 0.000 claims description 28
- 238000002372 labelling Methods 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 15
- 230000015654 memory Effects 0.000 claims description 15
- 230000003190 augmentative effect Effects 0.000 claims description 14
- 238000007635 classification algorithm Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 14
- 239000002023 wood Substances 0.000 description 13
- 239000003086 colorant Substances 0.000 description 12
- 239000000463 material Substances 0.000 description 12
- 238000012545 processing Methods 0.000 description 9
- 230000003416 augmentation Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 239000004744 fabric Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000010985 leather Substances 0.000 description 4
- 239000002184 metal Substances 0.000 description 4
- 229910052751 metal Inorganic materials 0.000 description 4
- -1 and linen are used Substances 0.000 description 3
- 239000011449 brick Substances 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 229920000742 Cotton Polymers 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 2
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 2
- 239000004567 concrete Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000004579 marble Substances 0.000 description 2
- 239000005445 natural material Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 229910001220 stainless steel Inorganic materials 0.000 description 2
- 239000010935 stainless steel Substances 0.000 description 2
- 239000010959 steel Substances 0.000 description 2
- 241000280258 Dyschoriste linearis Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000012237 artificial material Substances 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000006071 cream Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 235000012736 patent blue V Nutrition 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Description
[数1]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:既設定された値であるn以下の乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))前記数1に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含むことができる。
[数2]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))前記数2に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含むことができる。
[数3]
(R:ピクセル情報のRGB情報(x、y、z)のうちx、G:ピクセル情報のRGB情報(x、y、z)のうちy、B:ピクセル情報のRGB情報(x、y、z)のうちz、Y:ピクセル情報の変更後の元素値(x’、y’、z’))前記数3に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含むことができる。
[数4]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
[数5]
(R:前記dst(I)の(x’、y’、z’)のうちx’、G:前記dst(I)の(x’、y’、z’)のうちy’、B:前記dst(I)の(x’、y’、z’)のうちz’、Y:ピクセル情報の変更後の元素値(x’’、y’’、z’’))前記数4及び5に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含むことができる。
[数6]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))前記数6に基づいて前記第1空間イメージのピクセル情報にノイズ情報を付加して前記第2空間イメージを生成する動作を含むことができる。
から前記複数のピクセルのR、G、Bそれぞれの元素平均値である
を引いた値である
を求め、前記
の元素値のいずれか一つが既設定された値より小さい場合、前記第1ピクセルをブラー処理をする演算を遂行して前記第2空間イメージを生成する動作を含むことができる。
[数1]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:既設定された値であるn以下の乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
は、既設定された値であるnより小さな値を有する乱数である。従って、増強モジュール123は、第1空間イメージが含むピクセルのいずれか一つの値である(x、y、z)元素値を変更させるために乱数
を発生させて、該当ピクセルの元素値を
に変更でき、このような演算は、第1空間イメージが含む全てのピクセルまたは選択された一部のピクセルに対して適用される方式で第2空間イメージを生成できる。これによって、光が空間に入るか入らないことで、または時間によって撮影されるイメージの色相がある程度変更され得るという変数を学習に反映するように、数1による方式でデータを新たに生成して該当変数を学習させることができる。
[数2]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
が1より大きな値を有するように設定する場合、第1空間イメージのピクセルの中で明るい部分をさらに明るくし、暗い部分をさらに暗くして対比を増加させることができ、
が0より大きく1より小さな値を有するように設定する場合、第1空間イメージのピクセルの中で明るい部分をあまり明るくなくし、暗い部分をあまり暗くなくして対比を減少させることができる。
により出力される元素値が255より過度に大きくならないように
を設定でき、min関数を使用して最大値が255より大きくならないように設定できる。
により出力される元素値が0より小さくならないようにmax関数を使用してすることができる。
が小数点を有する値に設定される場合、変更されたピクセル情報の元素値が整数になるようにround関数を使用することができる。
を設定して数2を適用した場合の第2空間イメージである。図5Aの右側第2空間イメージは、第1空間イメージに比して、明るい部分がさらに明るく変わり、暗い部分がさらに暗く変わって対比が増加した新たな学習データが生成されることを確認することができる。
を設定して数2を適用した場合の第2空間イメージである。図5Bの右側第2空間イメージは、第1空間イメージに比して、明るい部分があまり明るくなく変わり、暗い部分があまり暗くなく変わって対比が減少した新たな学習データが生成されることを確認することができる。
を設定して数2を適用した場合の第2空間イメージである。図5Cを通して一つのピクセル情報が数2によって変わる程度を確認することができる。
[数3]
(R:ピクセル情報のRGB情報(x、y、z)のうちx、G:ピクセル情報のRGB情報(x、y、z)のうちy、B:ピクセル情報のRGB情報(x、y、z)のうちz、Y:ピクセル情報の変更後の元素値(x’、y’、z’)
[数4]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
[数5]
(R:数4で求められたdst(I)の(x’、y’、z’)のうちx’、G:数4で求められたdst(I)の(x’、y’、z’)のうちy’、B:数4で求められたdst(I)の(x’、y’、z’)のうちz’、Y:ピクセル情報の変更後の元素値(x’’、y’’、z’’)
[数6]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
Claims (13)
- データ増強基盤スタイル分析モデル学習装置において、
所定の動作を遂行するようにする命令語を格納する一つ以上のメモリ;及び前記一つ以上のメモリと動作できるように連結されて前記命令語を実行するように設定された一つ以上のプロセッサを含み、
前記プロセッサが遂行する動作は、
複数の空間イメージを獲得して前記複数の空間イメージそれぞれに該当するスタイル情報を特定するクラスをラベリングするか、前記クラスがラベリングされた複数の空間イメージを獲得して学習データを生成する動作;
前記複数の空間イメージのうち第1空間イメージが含むピクセル情報を所定の範囲内で変更した第2空間イメージを生成して前記学習データを増強する動作;
前記第1空間イメージにラベリングされたクラスを前記第2空間イメージにラベリングする動作;及び
所定のイメージ分類アルゴリズム基盤に設計されたモデルに前記増強された学習データを入力し、前記学習データに含まれた空間イメージと前記空間イメージそれぞれにラベリングされたクラスとの相関関係を導出する前記モデルの重み付けを学習させることで、前記相関関係に基づいて空間イメージのスタイルに対するクラスを判別するモデルを生成する動作を含み、
前記第2空間イメージを生成する動作は、
前記第1空間イメージが含むピクセルのうち第1ピクセルを真ん中に含むN×N(Nは、3以上の自然数)行列大きさに含まれた複数のピクセルのR、G、Bそれぞれの元素値のうち最大元素値である
から前記複数のピクセルのR、G、Bそれぞれの元素平均値である
を引いた値である
を求め、前記
の元素値のいずれか一つが既設定された値より小さい場合、前記第1ピクセルをブラー処理をする演算を遂行して前記第2空間イメージを生成する動作を含む、
データ増強基盤スタイル分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
[数1]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:既設定された値であるn以下の乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
前記数1に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含む、
請求項1に記載のデータ増強基盤スタイル分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
[数2]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
前記数2に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含む、
請求項1に記載のデータ増強基盤スタイル分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
[数3]
(R:ピクセル情報のRGB情報(x、y、z)のうちx、G:ピクセル情報のRGB情報(x、y、z)のうちy、B:ピクセル情報のRGB情報(x、y、z)のうちz、Y:ピクセル情報の変更後の元素値(x’、y’、z’))
前記数3に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含む、
請求項1に記載のデータ増強基盤スタイル分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
[数4]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
[数5]
(R:前記dst(I)の(x’、y’、z’)のうちx’、G:前記dst(I)の(x’、y’、z’)のうちy’、B:前記dst(I)の(x’、y’、z’)のうちz’、Y:ピクセル情報の変更後の元素値(x’’、y’’、z’’))
前記数4及び5に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含む、
請求項1に記載のデータ増強基盤スタイル分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
前記第1空間イメージに含まれたピクセル情報の一部にノイズ情報を追加して前記第2空間イメージを生成する動作を含む、
請求項1に記載のデータ増強基盤スタイル分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
[数6]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
前記数6に基づいて前記第1空間イメージのピクセル情報にノイズ情報を付加して前記第2空間イメージを生成する動作を含む、
請求項6に記載のデータ増強基盤スタイル分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
前記第1空間イメージが含む全てのピクセルの個数だけ、平均0及び標準偏差100の標準ガウス正規分布に従う乱数情報を生成し、前記全てのピクセルのそれぞれに前記乱数情報それぞれを合算してノイズが挿入された前記第2空間イメージを生成する動作を含む、
請求項1に記載のデータ増強基盤スタイル分析モデル学習装置。 - 前記モデルを生成する動作は、
ResNet(Deep Residual Learning for Image
Recognition)アルゴリズムに基づいて設計された神経網の入力レイヤに前記学習データに含まれた空間イメージが入力されるように設定し、出力レイヤに前記空間イメージそれぞれにラベリングされたクラスが入力されるように設定して、前記学習データに含まれた空間イメージと前記空間イメージそれぞれにラベリングされたクラスとの相関関係を導出する神経網の重み付けを学習させる動作を含む、
請求項1に記載のデータ増強基盤スタイル分析モデル学習装置。 - 前記ResNetアルゴリズムに基づいて設計された神経網のハイパーパラメータのうちネットワーク階層数は、[18、34、50、101、152、200]のうち一つの値を有し、クラス個数は、モダン/ロマンチック/クラシック/ナチュラル/カジュアル/北ヨーロッパ/ビンテージに分類される7つのクラスを含み、ミニバッチサイズは、[32、64、128、256]のうち一つの値を有し、学習回数は、10~15、または30の値のうち一つを有し、学習率は、0.005または0.01に設定され、損失関数は、SGDまたはAdamに設定される、
請求項9に記載のデータ増強基盤スタイル分析モデル学習装置。 - 請求項1乃至10のいずれか一項に記載の装置が生成したデータ増強基盤スタイル分析モデルを含むデータ増強基盤スタイル分析モデル学習装置。
- データ増強基盤スタイル分析モデル学習装置が遂行する方法において、
複数の空間イメージを獲得して前記複数の空間イメージそれぞれに該当するスタイル情
報を特定するクラスをラベリングするか、前記クラスがラベリングされた複数の空間イメージを獲得して学習データを生成するステップ;
前記複数の空間イメージのうち第1空間イメージが含むピクセル情報を所定の範囲内で変更した第2空間イメージを生成して前記学習データを増強するステップ;
前記第1空間イメージにラベリングされたクラスを前記第2空間イメージにラベリングするステップ;及び
所定のイメージ分類アルゴリズム基盤に設計されたモデルに前記増強された学習データを入力して、前記学習データに含まれた空間イメージと前記空間イメージそれぞれにラベリングされたクラスとの相関関係を導出する前記モデルの重み付けを学習させることで、前記相関関係に基づいて空間イメージのスタイルに対するクラスを判別するモデルを生成するステップを含み、
前記第2空間イメージを生成して前記学習データを増強するステップは、
前記第1空間イメージが含むピクセルのうち第1ピクセルを真ん中に含むN×N(Nは、3以上の自然数)行列大きさに含まれた複数のピクセルのR、G、Bそれぞれの元素値のうち最大元素値である
から前記複数のピクセルのR、G、Bそれぞれの元素平均値である
を引いた値である
を求め、前記
の元素値のいずれか一つが既設定された値より小さい場合、前記第1ピクセルをブラー処理をする演算を遂行して前記第2空間イメージを生成するステップを含む、
データ増強基盤スタイル分析モデル学習方法。 - 請求項12に記載の方法をプロセッサが遂行するようにするコンピュータ読み取り可能書き込み媒体に格納されたコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2020-0091766 | 2020-07-23 | ||
KR1020200091766A KR102208690B1 (ko) | 2020-07-23 | 2020-07-23 | 데이터 증강 기반 스타일 분석 모델 학습 장치 및 방법 |
PCT/KR2020/016742 WO2022019391A1 (ko) | 2020-07-23 | 2020-11-24 | 데이터 증강 기반 스타일 분석 모델 학습 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023508640A JP2023508640A (ja) | 2023-03-03 |
JP7325637B2 true JP7325637B2 (ja) | 2023-08-14 |
Family
ID=74239301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022531444A Active JP7325637B2 (ja) | 2020-07-23 | 2020-11-24 | データ増強基盤スタイル分析モデル学習装置及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220366675A1 (ja) |
EP (1) | EP4040348A4 (ja) |
JP (1) | JP7325637B2 (ja) |
KR (2) | KR102208690B1 (ja) |
CN (1) | CN114830144A (ja) |
WO (1) | WO2022019391A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116593408B (zh) * | 2023-07-19 | 2023-10-17 | 四川亿欣新材料有限公司 | 一种重质碳酸钙粉体色度检测方法 |
CN117095257A (zh) * | 2023-10-16 | 2023-11-21 | 珠高智能科技(深圳)有限公司 | 多模态大模型微调方法、装置、计算机设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170300783A1 (en) | 2016-04-13 | 2017-10-19 | Xerox Corporation | Target domain characterization for data augmentation |
CN108520278A (zh) | 2018-04-10 | 2018-09-11 | 陕西师范大学 | 一种基于随机森林的路面裂缝检测方法及其评价方法 |
JP2018169672A (ja) | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | 教師画像を生成する方法、コンピュータおよびプログラム |
US10489683B1 (en) | 2018-12-17 | 2019-11-26 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
CN110516703A (zh) | 2019-07-18 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于人工智能的车辆识别方法、装置及存储介质 |
KR20200078214A (ko) | 2018-12-21 | 2020-07-01 | 삼성전자주식회사 | 스타일 변환을 위한 영상 처리 장치 및 방법 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3347817B2 (ja) * | 1993-06-22 | 2002-11-20 | 株式会社ビュープラス | 画像認識装置 |
KR20100102772A (ko) | 2009-03-12 | 2010-09-27 | 주식회사 퍼시스 | 실내환경 분석 시스템 및 그 방법 |
US20170256038A1 (en) * | 2015-09-24 | 2017-09-07 | Vuno Korea, Inc. | Image Generating Method and Apparatus, and Image Analyzing Method |
KR102645202B1 (ko) * | 2017-01-03 | 2024-03-07 | 한국전자통신연구원 | 기계 학습 방법 및 장치 |
-
2020
- 2020-07-23 KR KR1020200091766A patent/KR102208690B1/ko active IP Right Grant
- 2020-11-24 EP EP20945981.7A patent/EP4040348A4/en not_active Withdrawn
- 2020-11-24 JP JP2022531444A patent/JP7325637B2/ja active Active
- 2020-11-24 CN CN202080085323.9A patent/CN114830144A/zh not_active Withdrawn
- 2020-11-24 WO PCT/KR2020/016742 patent/WO2022019391A1/ko unknown
-
2021
- 2021-01-19 KR KR1020210007440A patent/KR102430740B1/ko active IP Right Grant
-
2022
- 2022-07-21 US US17/870,525 patent/US20220366675A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170300783A1 (en) | 2016-04-13 | 2017-10-19 | Xerox Corporation | Target domain characterization for data augmentation |
JP2018169672A (ja) | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | 教師画像を生成する方法、コンピュータおよびプログラム |
CN108520278A (zh) | 2018-04-10 | 2018-09-11 | 陕西师范大学 | 一种基于随机森林的路面裂缝检测方法及其评价方法 |
US10489683B1 (en) | 2018-12-17 | 2019-11-26 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
KR20200078214A (ko) | 2018-12-21 | 2020-07-01 | 삼성전자주식회사 | 스타일 변환을 위한 영상 처리 장치 및 방법 |
CN110516703A (zh) | 2019-07-18 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于人工智能的车辆识别方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR102430740B1 (ko) | 2022-08-11 |
US20220366675A1 (en) | 2022-11-17 |
JP2023508640A (ja) | 2023-03-03 |
EP4040348A1 (en) | 2022-08-10 |
KR102208690B1 (ko) | 2021-01-28 |
KR20220012786A (ko) | 2022-02-04 |
CN114830144A (zh) | 2022-07-29 |
KR102208690B9 (ko) | 2022-03-11 |
WO2022019391A1 (ko) | 2022-01-27 |
EP4040348A4 (en) | 2023-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102485503B1 (ko) | 이미지 데이터베이스 분석 기반 상품 추천 장치 및 방법 | |
US11854070B2 (en) | Generating virtual makeup products | |
US11854072B2 (en) | Applying virtual makeup products | |
Chang et al. | Palette-based photo recoloring. | |
US20220366675A1 (en) | Apparatus and method for developing style analysis model based on data augmentation | |
Phan et al. | Color orchestra: Ordering color palettes for interpolation and prediction | |
JP7499362B2 (ja) | パーソナライズされた正確な仮想メイクアップトライオンのためのシステム及び方法 | |
KR20210090456A (ko) | 멀티 포즈를 지원하는 이미지 기반 자세보존 가상피팅 시스템 | |
US20220358411A1 (en) | Apparatus and method for developing object analysis model based on data augmentation | |
Lee et al. | Emotion-inspired painterly rendering | |
US20220358752A1 (en) | Apparatus and method for developing space analysis model based on data augmentation | |
Shakeri et al. | Saliency-based artistic abstraction with deep learning and regression trees | |
Delanoy et al. | Perception of material appearance: A comparison between painted and rendered images | |
Podlasov et al. | Japanese street fashion for young people: A multimodal digital humanities approach for identifying sociocultural patterns and trends | |
KR20050046877A (ko) | 이미지 조절 시스템 및 방법 | |
Bossett et al. | Emotion-Based Style Transfer On Visual Art Using Gram Matrices | |
Sun | Colour Matching Algorithm in Artificial Intelligence-based Chinese Painting Teaching | |
Ma et al. | Computer-Aided Brand Logo Design Based on Generative Adversarial Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7325637 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |