JP2023508640A - データ増強基盤スタイル分析モデル学習装置及び方法 - Google Patents
データ増強基盤スタイル分析モデル学習装置及び方法 Download PDFInfo
- Publication number
- JP2023508640A JP2023508640A JP2022531444A JP2022531444A JP2023508640A JP 2023508640 A JP2023508640 A JP 2023508640A JP 2022531444 A JP2022531444 A JP 2022531444A JP 2022531444 A JP2022531444 A JP 2022531444A JP 2023508640 A JP2023508640 A JP 2023508640A
- Authority
- JP
- Japan
- Prior art keywords
- spatial image
- spatial
- generating
- learning
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 39
- 238000013434 data augmentation Methods 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 title claims description 21
- 238000002372 labelling Methods 0.000 claims abstract description 25
- 230000006870 function Effects 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 18
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 15
- 230000015654 memory Effects 0.000 claims description 15
- 230000003190 augmentative effect Effects 0.000 claims description 14
- 238000007635 classification algorithm Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 14
- 239000002023 wood Substances 0.000 description 14
- 239000003086 colorant Substances 0.000 description 12
- 239000000463 material Substances 0.000 description 12
- 238000012545 processing Methods 0.000 description 9
- 230000003416 augmentation Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 239000004744 fabric Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000010985 leather Substances 0.000 description 4
- 239000002184 metal Substances 0.000 description 4
- 229910052751 metal Inorganic materials 0.000 description 4
- -1 and linen are used Substances 0.000 description 3
- 239000011449 brick Substances 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 229920000742 Cotton Polymers 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 2
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 2
- 239000004567 concrete Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000004579 marble Substances 0.000 description 2
- 239000005445 natural material Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 229910001220 stainless steel Inorganic materials 0.000 description 2
- 239000010935 stainless steel Substances 0.000 description 2
- 239000010959 steel Substances 0.000 description 2
- 241000280258 Dyschoriste linearis Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000012237 artificial material Substances 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000006071 cream Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 235000012736 patent blue V Nutrition 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
[数1]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:既設定された値であるn以下の乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))前記数1に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含むことができる。
[数2]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))前記数2に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含むことができる。
[数3]
(R:ピクセル情報のRGB情報(x、y、z)のうちx、G:ピクセル情報のRGB情報(x、y、z)のうちy、B:ピクセル情報のRGB情報(x、y、z)のうちz、Y:ピクセル情報の変更後の元素値(x’、y’、z’))前記数3に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含むことができる。
[数4]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
[数5]
(R:前記dst(I)の(x’、y’、z’)のうちx’、G:前記dst(I)の(x’、y’、z’)のうちy’、B:前記dst(I)の(x’、y’、z’)のうちz’、Y:ピクセル情報の変更後の元素値(x’’、y’’、z’’))前記数4及び5に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含むことができる。
[数6]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))前記数6に基づいて前記第1空間イメージのピクセル情報にノイズ情報を付加して前記第2空間イメージを生成する動作を含むことができる。
から前記複数のピクセルのR、G、Bそれぞれの元素平均値である
を引いた値である
を求め、前記
の元素値のいずれか一つが既設定された値より小さい場合、前記第1ピクセルをブラー処理をする演算を遂行して前記第2空間イメージを生成する動作を含むことができる。
[数1]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:既設定された値であるn以下の乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
は、既設定された値であるnより小さな値を有する乱数である。従って、増強モジュール123は、第1空間イメージが含むピクセルのいずれか一つの値である(x、y、z)元素値を変更させるために乱数
を発生させて、該当ピクセルの元素値を
に変更でき、このような演算は、第1空間イメージが含む全てのピクセルまたは選択された一部のピクセルに対して適用される方式で第2空間イメージを生成できる。これによって、光が空間に入るか入らないことで、または時間によって撮影されるイメージの色相がある程度変更され得るという変数を学習に反映するように、数1による方式でデータを新たに生成して該当変数を学習させることができる。
[数2]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
が1より大きな値を有するように設定する場合、第1空間イメージのピクセルの中で明るい部分をさらに明るくし、暗い部分をさらに暗くして対比を増加させることができ、
が0より大きく1より小さな値を有するように設定する場合、第1空間イメージのピクセルの中で明るい部分をあまり明るくなくし、暗い部分をあまり暗くなくして対比を減少させることができる。
により出力される元素値が255より過度に大きくならないように
を設定でき、min関数を使用して最大値が255より大きくならないように設定できる。
を設定して数2を適用した場合の第2空間イメージである。図5Aの右側第2空間イメージは、第1空間イメージに比して、明るい部分がさらに明るく変わり、暗い部分がさらに暗く変わって対比が増加した新たな学習データが生成されることを確認することができる。
を設定して数2を適用した場合の第2空間イメージである。図5Bの右側第2空間イメージは、第1空間イメージに比して、明るい部分があまり明るくなく変わり、暗い部分があまり暗くなく変わって対比が減少した新たな学習データが生成されることを確認することができる。
を設定して数2を適用した場合の第2空間イメージである。図5Cを通して一つのピクセル情報が数2によって変わる程度を確認することができる。
[数3]
(R:ピクセル情報のRGB情報(x、y、z)のうちx、G:ピクセル情報のRGB情報(x、y、z)のうちy、B:ピクセル情報のRGB情報(x、y、z)のうちz、Y:ピクセル情報の変更後の元素値(x’、y’、z’)
[数4]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
[数5]
(R:数4で求められたdst(I)の(x’、y’、z’)のうちx’、G:数4で求められたdst(I)の(x’、y’、z’)のうちy’、B:数4で求められたdst(I)の(x’、y’、z’)のうちz’、Y:ピクセル情報の変更後の元素値(x’’、y’’、z’’)
[数6]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
Claims (14)
- データ増強基盤スタイル分析モデル学習装置において、
所定の動作を遂行するようにする命令語を格納する一つ以上のメモリ;及び前記一つ以上のメモリと動作できるように連結されて前記命令語を実行するように設定された一つ以上のプロセッサを含み、
前記プロセッサが遂行する動作は、
複数の空間イメージを獲得して前記複数の空間イメージそれぞれに該当するスタイル情報を特定するクラスをラベリングするか、前記クラスがラベリングされた複数の空間イメージを獲得して学習データを生成する動作;
前記複数の空間イメージのうち第1空間イメージが含むピクセル情報を所定の範囲内で変更した第2空間イメージを生成して前記学習データを増強する動作;
前記第1空間イメージにラベリングされたクラスを前記第2空間イメージにラベリングする動作;及び
所定のイメージ分類アルゴリズム基盤に設計されたモデルに前記増強された学習データを入力し、前記学習データに含まれた空間イメージと前記空間イメージそれぞれにラベリングされたクラスとの相関関係を導出する前記モデルの重み付けを学習させることで、前記相関関係に基づいて空間イメージのスタイルに対するクラスを判別するモデルを生成する動作を含む、
データ増強基盤スタイル分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
前記第1空間イメージに含まれたピクセル情報の一部にノイズ情報を追加して前記第2空間イメージを生成する動作を含む、
請求項1に記載のデータ増強基盤スタイル分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
前記第1空間イメージが含む全てのピクセルの個数だけ、平均0及び標準偏差100の標準ガウス正規分布に従う乱数情報を生成し、前記全てのピクセルのそれぞれに前記乱数情報それぞれを合算してノイズが挿入された前記第2空間イメージを生成する動作を含む、
請求項1に記載のデータ増強基盤スタイル分析モデル学習装置。 - 前記モデルを生成する動作は、
ResNet(Deep Residual Learning for Image Recognition)アルゴリズムに基づいて設計された神経網の入力レイヤに前記学習データに含まれた空間イメージが入力されるように設定し、出力レイヤに前記空間イメージそれぞれにラベリングされたクラスが入力されるように設定して、前記学習データに含まれた空間イメージと前記空間イメージそれぞれにラベリングされたクラスとの相関関係を導出する神経網の重み付けを学習させる動作を含む、
請求項1に記載のデータ増強基盤スタイル分析モデル学習装置。 - 前記ResNetアルゴリズムに基づいて設計された神経網のハイパーパラメータのうちネットワーク階層数は、[18、34、50、101、152、200]のうち一つの値を有し、クラス個数は、モダン/ロマンチック/クラシック/ナチュラル/カジュアル/北ヨーロッパ/ビンテージに分類される7つのクラスを含み、ミニバッチサイズは、[32、64、128、256]のうち一つの値を有し、学習回数は、10~15、または30の値のうち一つを有し、学習率は、0.005または0.01に設定され、損失関数は、SGDまたはAdamに設定される、
請求項10に記載のデータ増強基盤スタイル分析モデル学習装置。 - 請求項1乃至11のいずれか一項に記載の装置が生成したデータ増強基盤スタイル分析モデルを含むデータ増強基盤スタイル分析モデル学習装置。
- データ増強基盤スタイル分析モデル学習装置が遂行する方法において、
複数の空間イメージを獲得して前記複数の空間イメージそれぞれに該当するスタイル情報を特定するクラスをラベリングするか、前記クラスがラベリングされた複数の空間イメージを獲得して学習データを生成するステップ;
前記複数の空間イメージのうち第1空間イメージが含むピクセル情報を所定の範囲内で変更した第2空間イメージを生成して前記学習データを増強するステップ;
前記第1空間イメージにラベリングされたクラスを前記第2空間イメージにラベリングするステップ;及び
所定のイメージ分類アルゴリズム基盤に設計されたモデルに前記増強された学習データを入力して、前記学習データに含まれた空間イメージと前記空間イメージそれぞれにラベリングされたクラスとの相関関係を導出する前記モデルの重み付けを学習させることで、前記相関関係に基づいて空間イメージのスタイルに対するクラスを判別するモデルを生成するステップを含む、
データ増強基盤スタイル分析モデル学習方法。 - 請求項13に記載の方法をプロセッサが遂行するようにするコンピュータ読み取り可能書き込み媒体に格納されたコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200091766A KR102208690B1 (ko) | 2020-07-23 | 2020-07-23 | 데이터 증강 기반 스타일 분석 모델 학습 장치 및 방법 |
KR10-2020-0091766 | 2020-07-23 | ||
PCT/KR2020/016742 WO2022019391A1 (ko) | 2020-07-23 | 2020-11-24 | 데이터 증강 기반 스타일 분석 모델 학습 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023508640A true JP2023508640A (ja) | 2023-03-03 |
JP7325637B2 JP7325637B2 (ja) | 2023-08-14 |
Family
ID=74239301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022531444A Active JP7325637B2 (ja) | 2020-07-23 | 2020-11-24 | データ増強基盤スタイル分析モデル学習装置及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220366675A1 (ja) |
EP (1) | EP4040348A4 (ja) |
JP (1) | JP7325637B2 (ja) |
KR (2) | KR102208690B1 (ja) |
CN (1) | CN114830144A (ja) |
WO (1) | WO2022019391A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116593408B (zh) * | 2023-07-19 | 2023-10-17 | 四川亿欣新材料有限公司 | 一种重质碳酸钙粉体色度检测方法 |
CN117095257A (zh) * | 2023-10-16 | 2023-11-21 | 珠高智能科技(深圳)有限公司 | 多模态大模型微调方法、装置、计算机设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170300783A1 (en) * | 2016-04-13 | 2017-10-19 | Xerox Corporation | Target domain characterization for data augmentation |
CN108520278A (zh) * | 2018-04-10 | 2018-09-11 | 陕西师范大学 | 一种基于随机森林的路面裂缝检测方法及其评价方法 |
JP2018169672A (ja) * | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | 教師画像を生成する方法、コンピュータおよびプログラム |
US10489683B1 (en) * | 2018-12-17 | 2019-11-26 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
CN110516703A (zh) * | 2019-07-18 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于人工智能的车辆识别方法、装置及存储介质 |
KR20200078214A (ko) * | 2018-12-21 | 2020-07-01 | 삼성전자주식회사 | 스타일 변환을 위한 영상 처리 장치 및 방법 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3347817B2 (ja) * | 1993-06-22 | 2002-11-20 | 株式会社ビュープラス | 画像認識装置 |
KR20100102772A (ko) | 2009-03-12 | 2010-09-27 | 주식회사 퍼시스 | 실내환경 분석 시스템 및 그 방법 |
KR101880035B1 (ko) * | 2015-09-24 | 2018-07-19 | 주식회사 뷰노 | 영상 생성 방법 및 장치, 및 영상 분석 방법 |
KR102645202B1 (ko) * | 2017-01-03 | 2024-03-07 | 한국전자통신연구원 | 기계 학습 방법 및 장치 |
-
2020
- 2020-07-23 KR KR1020200091766A patent/KR102208690B1/ko active IP Right Grant
- 2020-11-24 CN CN202080085323.9A patent/CN114830144A/zh not_active Withdrawn
- 2020-11-24 EP EP20945981.7A patent/EP4040348A4/en not_active Withdrawn
- 2020-11-24 JP JP2022531444A patent/JP7325637B2/ja active Active
- 2020-11-24 WO PCT/KR2020/016742 patent/WO2022019391A1/ko unknown
-
2021
- 2021-01-19 KR KR1020210007440A patent/KR102430740B1/ko active IP Right Grant
-
2022
- 2022-07-21 US US17/870,525 patent/US20220366675A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170300783A1 (en) * | 2016-04-13 | 2017-10-19 | Xerox Corporation | Target domain characterization for data augmentation |
JP2018169672A (ja) * | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | 教師画像を生成する方法、コンピュータおよびプログラム |
CN108520278A (zh) * | 2018-04-10 | 2018-09-11 | 陕西师范大学 | 一种基于随机森林的路面裂缝检测方法及其评价方法 |
US10489683B1 (en) * | 2018-12-17 | 2019-11-26 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
KR20200078214A (ko) * | 2018-12-21 | 2020-07-01 | 삼성전자주식회사 | 스타일 변환을 위한 영상 처리 장치 및 방법 |
CN110516703A (zh) * | 2019-07-18 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于人工智能的车辆识别方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114830144A (zh) | 2022-07-29 |
WO2022019391A1 (ko) | 2022-01-27 |
EP4040348A1 (en) | 2022-08-10 |
US20220366675A1 (en) | 2022-11-17 |
JP7325637B2 (ja) | 2023-08-14 |
KR102208690B9 (ko) | 2022-03-11 |
KR102430740B1 (ko) | 2022-08-11 |
EP4040348A4 (en) | 2023-11-22 |
KR20220012786A (ko) | 2022-02-04 |
KR102208690B1 (ko) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102485503B1 (ko) | 이미지 데이터베이스 분석 기반 상품 추천 장치 및 방법 | |
US11854070B2 (en) | Generating virtual makeup products | |
US11854072B2 (en) | Applying virtual makeup products | |
US20220366675A1 (en) | Apparatus and method for developing style analysis model based on data augmentation | |
Phan et al. | Color orchestra: Ordering color palettes for interpolation and prediction | |
JP7499362B2 (ja) | パーソナライズされた正確な仮想メイクアップトライオンのためのシステム及び方法 | |
KR20210090456A (ko) | 멀티 포즈를 지원하는 이미지 기반 자세보존 가상피팅 시스템 | |
JP7336033B2 (ja) | データ増強基盤事物分析モデル学習装置及び方法 | |
CN112218006B (zh) | 一种多媒体数据处理方法、装置、电子设备及存储介质 | |
Lee et al. | Emotion-inspired painterly rendering | |
US20220358752A1 (en) | Apparatus and method for developing space analysis model based on data augmentation | |
Shakeri et al. | Saliency-based artistic abstraction with deep learning and regression trees | |
Delanoy et al. | Perception of material appearance: A comparison between painted and rendered images | |
CN115018729A (zh) | 一种面向内容的白盒图像增强方法 | |
KR20050046877A (ko) | 이미지 조절 시스템 및 방법 | |
Ma et al. | Computer-Aided Brand Logo Design Based on Generative Adversarial Networks | |
بابا | AI-Generated Imagery: A New Frontier for Nubian Artistic Expression | |
CN116805373A (zh) | 彩色底色检测 | |
Yuan | Application of multi-source data fusion of modern dress design with the artistic elements of Chinese embroidery | |
Rakshitha et al. | Anime Visage: Revealing Ingenuity with GAN-Assisted Character Development | |
Sun | Colour Matching Algorithm in Artificial Intelligence-based Chinese Painting Teaching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7325637 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |