JP2023508641A - データ増強基盤事物分析モデル学習装置及び方法 - Google Patents
データ増強基盤事物分析モデル学習装置及び方法 Download PDFInfo
- Publication number
- JP2023508641A JP2023508641A JP2022531445A JP2022531445A JP2023508641A JP 2023508641 A JP2023508641 A JP 2023508641A JP 2022531445 A JP2022531445 A JP 2022531445A JP 2022531445 A JP2022531445 A JP 2022531445A JP 2023508641 A JP2023508641 A JP 2023508641A
- Authority
- JP
- Japan
- Prior art keywords
- spatial image
- image
- class
- model
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 41
- 238000013434 data augmentation Methods 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 title claims description 20
- 238000002372 labelling Methods 0.000 claims description 35
- 238000004422 calculation algorithm Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 12
- 230000003190 augmentative effect Effects 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims 2
- 238000007635 classification algorithm Methods 0.000 abstract description 2
- 238000013473 artificial intelligence Methods 0.000 description 33
- 230000006870 function Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000003416 augmentation Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Abstract
Description
[数1]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))前記数1に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含むことができる。
[数2]
(R:ピクセル情報のRGB情報(x、y、z)のうちx、G:ピクセル情報のRGB情報(x、y、z)のうちy、B:ピクセル情報のRGB情報(x、y、z)のうちz、Y:ピクセル情報の変更後の元素値(x’、y’、z’))前記数2に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含むことができる。
[数3]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
[数4]
(R:前記dst(I)の(x’、y’、z’)のうちx’、G:前記dst(I)の(x’、y’、z’)のうちy’、B:前記dst(I)の(x’、y’、z’)のうちz’、Y:ピクセル情報の変更後の元素値(x’’、y’’、z’’))前記数3及び4に基づいて前記第1空間イメージから前記第2空間イメージを生成する動作を含むことができる。
[数5]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))前記数5に基づいて前記第1空間イメージのピクセル情報にノイズ情報を付加して前記第2空間イメージを生成する動作を含むことができる。
から前記複数のピクセルのR、G、Bそれぞれの元素平均値である
を引いた値である
を求め、前記
の元素値のいずれか一つが既設定された値より小さい場合、前記第1ピクセルをブラー処理をする演算を遂行して前記第2空間イメージを生成する動作を含むことができる。
[数1]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
が1より大きな値を有するように設定する場合、第1空間イメージのピクセルの中で明るい部分をさらに明るくし、暗い部分をさらに暗くして対比を増加させることができ、
が0より大きく1より小さな値を有するように設定する場合、第1空間イメージのピクセルの中で明るい部分をあまり明るくなくし、暗い部分をあまり暗くなくして対比を減少させることができる。
により出力される元素値が255より過度に大きくならないように
を設定でき、min関数を使用して最大値が255より大きくならないように設定できる。
を設定して数1を適用した場合の第2空間イメージである。図3Aの右側第2空間イメージは、第1空間イメージより、明るい部分がさらに明るく変わり、暗い部分がさらに暗く変わって対比が増加した新たな学習データが生成されることを確認することができる。
を設定して数1を適用した場合の第2空間イメージである。図3Bの右側第2空間イメージは、第1空間イメージより、明るい部分があまり明るくなく変わり、暗い部分があまり暗くなく変わって対比が減少した新たな学習データが生成されることを確認することができる。
を設定して数1を適用した場合の第2空間イメージである。図3Cを通して一つのピクセル情報が数1によって変わる程度を確認することができる。
[数2]
(R:ピクセル情報のRGB情報(x、y、z)のうちx、G:ピクセル情報のRGB情報(x、y、z)のうちy、B:ピクセル情報のRGB情報(x、y、z)のうちz、Y:ピクセル情報の変更後の元素値(x’、y’、z’))
[数3]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:定数、
:定数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
[数4]
(R:数3で求められたdst(I)の(x’、y’、z’)のうちx’、G:数3で求められたdst(I)の(x’、y’、z’)のうちy’、B:数3で求められたdst(I)の(x’、y’、z’)のうちz’、Y:ピクセル情報の変更後の元素値(x’’、y’’、z’’))
[数5]
(src(I):ピクセル情報の変更前の元素値(x、y、z)、
:乱数、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))
Claims (17)
- データ増強基盤事物分析モデル学習装置において、
所定の動作を遂行するようにする命令語を格納する一つ以上のメモリ;及び前記一つ以上のメモリと動作できるように連結されて前記命令語を実行するように設定された一つ以上のプロセッサを含み、
前記プロセッサが遂行する動作は、
第1事物イメージを含む第1空間イメージを獲得して、前記第1空間イメージが含むピクセル情報を変更した第2空間イメージを生成する動作;
前記第1空間イメージ内の前記第1事物イメージを含む領域にバウンディングボックス(bounding box)を指定し、前記バウンディングボックスに前記第1事物イメージを特定する第1クラスをラベリングする動作;
所定の客体検出アルゴリズム基盤に設計されたモデルに前記第1空間イメージを入力して、前記バウンディングボックス内の前記第1事物イメージと前記第1クラスとの相関関係を導出する前記モデルの重み付けを1次学習させることで、前記相関関係に基づいて空間イメージに含まれた事物イメージを特定し、クラスを判別するモデルを生成する動作;
前記1次学習されたモデルに前記第2空間イメージを入力して、前記モデルが前記第2空間イメージ内の第2事物イメージを特定したバウンディングボックスと、前記モデルが前記第2事物イメージに対して判別した第2クラスを前記第2空間イメージにラベリングする動作;及び
前記第2空間イメージに基づいて前記モデルの重み付けを2次学習させたモデルを生成する動作を含む、
データ増強基盤事物分析モデル学習装置。 - 前記動作は、
事物情報を特定する複数のクラスを格納したセットを生成する動作をさらに含み、
前記ラベリングする動作は、
前記第1空間イメージ内の第1事物イメージの領域にバウンディングボックス(bounding box)が指定されると、前記セットを出力して前記第1事物イメージを特定する第1クラスの選択を受けて、前記バウンディングボックスに前記第1クラスをラベリングする動作を含む、
請求項1に記載のデータ増強基盤事物分析モデル学習装置。 - 前記2次学習させたモデルを生成する動作は、
前記1次学習されたモデルに前記第2空間イメージを入力して、前記第2事物イメージと前記第2クラスとの相関関係を導出するモデルの重み付けを2次学習させることで、前記相関関係に基づいて空間イメージに含まれた事物イメージを特定し、クラスを判別するモデルを生成する動作を含む、
請求項1に記載のデータ増強基盤事物分析モデル学習装置。 - 前記第2空間イメージにラベリングする動作は、
前記1次学習されたモデルに前記第2空間イメージを入力して、前記モデルが前記第2事物イメージに対して判別した第2クラスを前記第1クラスと比較して、前記第2クラスと前記第1クラスが同一である場合、前記第2クラスの値を維持し、前記第2クラスと前記第1クラスが異なる場合、前記第2クラスの値を前記第1クラスと同じ値に修正する動作を含む、
請求項1に記載のデータ増強基盤事物分析モデル学習装置。 - 前記バウンディングボックスは、
一つのバウンディングボックス当たりに一つの事物イメージを含み、バウンディングボックスの内部に事物イメージの枠領域が全て含まれるように設定されることを特徴とする、
請求項1に記載のデータ増強基盤事物分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
前記第1空間イメージに含まれたピクセル情報のRGB情報を構成する(x、y、z)元素値に対して、所定の基準値より大きな値を有する元素値がさらに大きな値を有するように変更し、前記基準値より小さな値を有する元素値がさらに小さな元素値を有するように変更して前記第2空間イメージを生成する動作を含む、
請求項1に記載のデータ増強基盤事物分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
前記第1空間イメージに含まれたピクセル情報の一部にノイズ情報を追加して前記第2空間イメージを生成する動作を含む、
請求項1に記載のデータ増強基盤事物分析モデル学習装置。 - 前記第2空間イメージを生成する動作は、
前記第1空間イメージが含む全てのピクセルの個数だけ、平均0及び標準偏差100の標準ガウス正規分布に従う乱数情報を生成し、前記全てのピクセルのそれぞれに前記乱数情報それぞれを合算してノイズが挿入された前記第2空間イメージを生成する動作を含む、
請求項1に記載のデータ増強基盤事物分析モデル学習装置。 - 前記モデルを生成する動作は、
Faster R-CNN(region-based convolutional neural network)アルゴリズムに基づいて設計された神経網の入力レイヤに事物イメージが含まれた空間イメージが入力されるように設定し、出力レイヤに事物イメージを含むバウンディングボックス及び事物イメージのクラスが入力されるように設定して、入力される空間イメージから入力される空間イメージに含まれた事物イメージのバウンディングボックス領域の相関関係及び入力される空間イメージに含まれた事物イメージのクラスを判別する相関関係を導出する神経網の重み付けを学習させる動作を含む、
請求項1に記載のデータ増強基盤事物分析モデル学習装置。 - 請求項1乃至14のいずれか一項に記載のデータ増強基盤事物分析モデル学習装置が生成したデータ増強基盤事物分析モデルを含む装置。
- データ増強基盤事物分析モデル学習装置が遂行する方法において、
第1事物イメージを含む第1空間イメージを獲得して、前記第1空間イメージが含むピクセル情報を変更した第2空間イメージを生成するステップ;
前記第1空間イメージ内の前記第1事物イメージを含む領域にバウンディングボックス(bounding box)を指定し、前記バウンディングボックスに前記第1事物イメージを特定する第1クラスをラベリングするステップ;
所定の客体検出アルゴリズム基盤に設計されたモデルに前記第1空間イメージを入力して、前記バウンディングボックス内の前記第1事物イメージと前記第1クラスとの相関関係を導出する前記モデルの重み付けを1次学習させることで、前記相関関係に基づいて空間イメージに含まれた事物イメージを特定し、クラスを判別するモデルを生成するステップ;
前記1次学習されたモデルに前記第2空間イメージを入力して、前記モデルが前記第2空間イメージ内の第2事物イメージを特定したバウンディングボックスと前記モデルが前記第2事物イメージに対して判別した第2クラスを前記第2空間イメージにラベリングするステップ;及び
前記第2空間イメージに基づいて前記モデルの重み付けを2次学習させたモデルを生成するステップを含む、
データ増強基盤事物分析モデル学習方法。 - 請求項16に記載のデータ増強基盤事物分析モデル学習方法をプロセッサが遂行するようにするコンピュータ読み取り可能書き込み媒体に格納されたコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2020-0091759 | 2020-07-23 | ||
KR1020200091759A KR102208688B1 (ko) | 2020-07-23 | 2020-07-23 | 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 |
PCT/KR2020/016741 WO2022019390A1 (ko) | 2020-07-23 | 2020-11-24 | 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023508641A true JP2023508641A (ja) | 2023-03-03 |
JP7336033B2 JP7336033B2 (ja) | 2023-08-30 |
Family
ID=74239288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022531445A Active JP7336033B2 (ja) | 2020-07-23 | 2020-11-24 | データ増強基盤事物分析モデル学習装置及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220358411A1 (ja) |
EP (1) | EP4040349A4 (ja) |
JP (1) | JP7336033B2 (ja) |
KR (2) | KR102208688B1 (ja) |
CN (1) | CN114830145A (ja) |
WO (1) | WO2022019390A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021067234A1 (en) * | 2019-09-30 | 2021-04-08 | Pricewaterhousecoopers Llp | Systems and methods for training image detection systems for augmented and mixed reality applications |
KR102568482B1 (ko) * | 2023-03-02 | 2023-08-23 | (주) 씨이랩 | 군사용 영상분석을 위한 데이터증강 서비스 제공 시스템 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120288186A1 (en) * | 2011-05-12 | 2012-11-15 | Microsoft Corporation | Synthesizing training samples for object recognition |
US20170300783A1 (en) * | 2016-04-13 | 2017-10-19 | Xerox Corporation | Target domain characterization for data augmentation |
CN108520278A (zh) * | 2018-04-10 | 2018-09-11 | 陕西师范大学 | 一种基于随机森林的路面裂缝检测方法及其评价方法 |
JP2019508801A (ja) * | 2016-07-22 | 2019-03-28 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | なりすまし防止顔認識のための生体検知 |
US10489683B1 (en) * | 2018-12-17 | 2019-11-26 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
JP6612487B1 (ja) * | 2019-05-31 | 2019-11-27 | 楽天株式会社 | 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム |
JP2020098455A (ja) * | 2018-12-18 | 2020-06-25 | 国立大学法人豊橋技術科学大学 | 物体識別システム、物体識別方法、並びに、画像識別プログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58220524A (ja) * | 1982-06-16 | 1983-12-22 | Mitsubishi Electric Corp | 信号切換装置 |
JP2006048370A (ja) * | 2004-08-04 | 2006-02-16 | Kagawa Univ | パターン認識方法、それに用いられる教示データ生成方法およびパターン認識装置 |
KR20100102772A (ko) | 2009-03-12 | 2010-09-27 | 주식회사 퍼시스 | 실내환경 분석 시스템 및 그 방법 |
WO2017051943A1 (ko) * | 2015-09-24 | 2017-03-30 | 주식회사 뷰노코리아 | 영상 생성 방법 및 장치, 및 영상 분석 방법 |
JP6441980B2 (ja) * | 2017-03-29 | 2018-12-19 | 三菱電機インフォメーションシステムズ株式会社 | 教師画像を生成する方法、コンピュータおよびプログラム |
US10565475B2 (en) * | 2018-04-24 | 2020-02-18 | Accenture Global Solutions Limited | Generating a machine learning model for objects based on augmenting the objects with physical properties |
KR102646889B1 (ko) * | 2018-12-21 | 2024-03-12 | 삼성전자주식회사 | 스타일 변환을 위한 영상 처리 장치 및 방법 |
-
2020
- 2020-07-23 KR KR1020200091759A patent/KR102208688B1/ko active IP Right Grant
- 2020-11-24 EP EP20946328.0A patent/EP4040349A4/en not_active Withdrawn
- 2020-11-24 CN CN202080085324.3A patent/CN114830145A/zh not_active Withdrawn
- 2020-11-24 JP JP2022531445A patent/JP7336033B2/ja active Active
- 2020-11-24 WO PCT/KR2020/016741 patent/WO2022019390A1/ko unknown
-
2021
- 2021-01-19 KR KR1020210007411A patent/KR102430743B1/ko active IP Right Grant
-
2022
- 2022-07-21 US US17/870,519 patent/US20220358411A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120288186A1 (en) * | 2011-05-12 | 2012-11-15 | Microsoft Corporation | Synthesizing training samples for object recognition |
US20170300783A1 (en) * | 2016-04-13 | 2017-10-19 | Xerox Corporation | Target domain characterization for data augmentation |
JP2019508801A (ja) * | 2016-07-22 | 2019-03-28 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | なりすまし防止顔認識のための生体検知 |
CN108520278A (zh) * | 2018-04-10 | 2018-09-11 | 陕西师范大学 | 一种基于随机森林的路面裂缝检测方法及其评价方法 |
US10489683B1 (en) * | 2018-12-17 | 2019-11-26 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
JP2020098455A (ja) * | 2018-12-18 | 2020-06-25 | 国立大学法人豊橋技術科学大学 | 物体識別システム、物体識別方法、並びに、画像識別プログラム |
JP6612487B1 (ja) * | 2019-05-31 | 2019-11-27 | 楽天株式会社 | 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN114830145A (zh) | 2022-07-29 |
WO2022019390A1 (ko) | 2022-01-27 |
KR102208688B9 (ko) | 2022-03-11 |
EP4040349A4 (en) | 2024-01-03 |
US20220358411A1 (en) | 2022-11-10 |
KR20220012785A (ko) | 2022-02-04 |
JP7336033B2 (ja) | 2023-08-30 |
KR102430743B1 (ko) | 2022-08-11 |
EP4040349A1 (en) | 2022-08-10 |
KR102208688B1 (ko) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109740670B (zh) | 视频分类的方法及装置 | |
CN109325954B (zh) | 图像分割方法、装置及电子设备 | |
Fu et al. | Uncertainty inspired underwater image enhancement | |
Nestmeyer et al. | Reflectance adaptive filtering improves intrinsic image estimation | |
US8692830B2 (en) | Automatic avatar creation | |
JP2023537268A (ja) | イメージデータベース分析基盤商品推薦装置及び方法 | |
US20220358411A1 (en) | Apparatus and method for developing object analysis model based on data augmentation | |
GB2586260A (en) | Facial image processing | |
Ruan et al. | Aifnet: All-in-focus image restoration network using a light field-based dataset | |
CN111047543A (zh) | 图像增强方法、装置和存储介质 | |
Steffens et al. | Cnn based image restoration: Adjusting ill-exposed srgb images in post-processing | |
Blanch et al. | End-to-end conditional gan-based architectures for image colourisation | |
US20230130281A1 (en) | Figure-Ground Neural Radiance Fields For Three-Dimensional Object Category Modelling | |
US11321938B2 (en) | Color adaptation using adversarial training networks | |
US20220358752A1 (en) | Apparatus and method for developing space analysis model based on data augmentation | |
Hepburn et al. | Enforcing perceptual consistency on generative adversarial networks by using the normalised laplacian pyramid distance | |
US20210150274A1 (en) | Object recognition from images using cad models as prior | |
CN115457015A (zh) | 一种基于视觉交互感知双流网络的图像无参考质量评估方法及装置 | |
Chaczko et al. | Teaching Computer Vision for telemedicine systems using OpenCV | |
Prokott et al. | Identifying specular highlights: Insights from deep learning | |
Deshpande et al. | Fusion of handcrafted edge and residual learning features for image colorization | |
Koleini et al. | Film Colorization Using Texture Feature Coding and Artificial Neural Networks. | |
Piccoli | Visual Anomaly Detection For Automatic Quality Control | |
Pavaskar et al. | COLORIZATION OF GRAYSCALE IMAGES USING DEEP LEARNING | |
Mahajan | A comprehensive Analysis on Image Colorization using Generative Adversarial Networks (GANs) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230818 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7336033 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |