JP7167668B2 - 学習方法、学習装置、プログラムおよび記録媒体 - Google Patents
学習方法、学習装置、プログラムおよび記録媒体 Download PDFInfo
- Publication number
- JP7167668B2 JP7167668B2 JP2018225420A JP2018225420A JP7167668B2 JP 7167668 B2 JP7167668 B2 JP 7167668B2 JP 2018225420 A JP2018225420 A JP 2018225420A JP 2018225420 A JP2018225420 A JP 2018225420A JP 7167668 B2 JP7167668 B2 JP 7167668B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- model
- learning data
- image
- gradient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/045—Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/80—Recognising image objects characterised by unique random patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Quality & Reliability (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
図1は、本実施形態の学習装置1の概略の構成を示すブロック図である。学習装置1は、例えば、パーソナルコンピュータなどの端末装置で構成されている。この学習装置1は、入力部2と、記憶部3と、表示部4と、通信部5と、読取部6と、学習データ生成部7と、物体認識部8と、学習処理部9と、制御部10とを有している。
次に、本実施形態の学習方法について説明する。図2は、図1の学習装置1による学習方法の処理の流れを示すフローチャートである。また、図3は、上記学習方法による処理を模式的に示す説明図である。本実施形態の学習方法は、学習データ生成ステップ(S1)と、学習ステップ(S2)とを含む。以下、より詳細に説明する。
S1では、まず、制御部10のカウンタ(図示せず)のカウント値nを、n=1に設定する(S11)。なお、カウント値nは、ここでは学習回数を示す値とする。そして、学習データ生成部7は、物体のCGモデルを含む合成画像と、上記物体の教師信号とを有する学習データを生成する。
次に、学習処理部9は、S1で作成した学習データを用いて、合成画像M’からニューロ演算によって、合成画像M’に含まれる物体の情報を認識する認識機能を学習する。より具体的には、以下の通りである。
vj=Σ(wij・yi)
である。次に、このvjを入力としてj番目の層の出力yjを計算すると、
yj=φj(vj)
となる。ここで、φは、活性化関数である。
∂E/∂wij=(∂E/∂yj)・(∂yj/∂vj)・(∂vj/∂wij)
が成り立つ。上式の右辺の第1項が、上述した「誤差の勾配」に相当する。この「誤差の勾配」は、j番目の層の入力値yj、つまり、i番目の層の各ノードの出力値(画素の値)が、誤差Eにどのくらい影響しているかを示す。したがって、i番目の層をCNNの入力層と考えることにより、入力画像の画素のごとの誤差の勾配、すなわち、合成画像Mの画素ごとの誤差の勾配を求めることができる。なお、CNNの層数がさらに増えても、上記と同様の考え方(微分の連鎖)に基づいて、合成画像Mの画素ごとの誤差の勾配を求めることができる。
以上のように、S1の学習データ生成ステップでは、誤差逆伝搬法によって合成画像M(またはM’)と教師信号Tとから計算される、合成画像Mの画素ごとの誤差の勾配に基づいて、合成画像Mの一部を他のCGモデルで置換して、新たな学習データを生成する(S13)。これにより、物体認識部8でのニューロ演算による物体の情報の認識結果と教師信号Tとの誤差が置換前よりも大きくなるような合成画像を得ることができる。つまり、人がパラメータを設定して生成したバリエーションの合成画像よりも、学習効果の高い(認識し難い)合成画像を得ることができる。したがって、S2の学習ステップにおいて、他のCGモデルで置換した後の合成画像を含む上記新たな学習データを用いて、物体認識部8の認識機能を学習することにより(S23)、高い学習効果を得ることができ、物体認識部8における画像認識の精度を向上させることができる。
図5は、本実施形態の学習装置1による他の学習方法の処理の流れを示すフローチャートである。図5では、上述したS2の学習ステップにおいて、S26とS27との間に、パラメータ勾配を算出するステップ(S26-1)が加わり、S27とS28との間に、パラメータの修正ステップ(S27-1)が加わっている。それ以外は、図2のフローチャートと同様である。以下、図2と異なる点について説明する。
本実施形態で説明した学習装置1は、例えば、所定のプログラム(アプリケーションソフトウェア)をインストールしたコンピュータ(PC)で構成することができる。上記プログラムをコンピュータ(例えばCPUとしての制御部10)が読み取って実行することにより、学習装置1の各部を動作させて上述した各処理(各工程)を実行させることができる。このようなプログラムは、例えばネットワークを介して外部からダウンロードすることによって取得されて記憶部3に記憶される。また、上記プログラムは、例えばCD-ROM(Compact Disk-Read Only Memory)などのコンピュータ読取可能な記録媒体Rに記録され、この記録媒体Rから上記プログラムをコンピュータが読み取って記憶部3に記憶される形態であってもよい。
以上で説明した本実施形態の学習方法、学習装置、プログラムおよび記録媒体は、以下のように表現することができる。
前記学習データを用いて、前記合成画像からニューロ演算によって前記物体の情報を認識する認識機能を学習する学習ステップとを含み、
前記学習データ生成ステップでは、誤差逆伝搬法によって前記合成画像と前記教師信号とから計算される、前記合成画像の画素ごとの誤差の勾配に基づいて、新たな学習データを生成し、
前記学習ステップでは、前記新たな学習データを用いて前記認識機能を学習することを特徴とする学習方法。
ニューロ演算によって入力画像に含まれる物体の情報を認識する物体認識部と、
前記物体認識部の認識機能を学習する学習処理部とを備え、
前記学習処理部は、誤差逆伝搬法によって前記合成画像と前記教師信号とから前記合成画像の画素ごとの誤差の勾配を計算し、
前記学習データ生成部は、前記誤差の勾配に基づいて、新たな学習データを生成し、
前記学習処理部は、前記新たな学習データを用いて前記認識機能を学習することを特徴とする学習装置。
前記学習データ生成部は、画素ごとの前記誤差の勾配に基づいて、前記合成画像に含まれる前記CGモデルを他のCGモデルで置換することを特徴とする前記7に記載の学習装置。
7 学習データ生成部
8 物体認識部
9 学習処理部
M 記録媒体
Claims (14)
- 物体のCGモデルを含む合成画像と、前記物体の教師信号とを有する学習データを生成する学習データ生成ステップと、
前記学習データを用いて、前記合成画像からニューロ演算によって前記物体の情報を認識する認識機能を学習する学習ステップとを含み、
前記学習データ生成ステップでは、誤差逆伝搬法によって前記合成画像と前記教師信号とから計算される、前記合成画像の画素ごとの誤差の勾配に基づいて、新たな学習データを生成し、
前記学習ステップでは、前記新たな学習データを用いて前記認識機能を学習するとともに、前記誤差の勾配を用いて、前記物体のCGモデルのパラメータに関するパラメータ勾配を算出し、前記パラメータ勾配に基づいて、前記物体のCGモデルのパラメータを修正することを特徴とする学習方法。 - 前記学習データ生成ステップでは、前記学習ステップで前記物体のCGモデルのパラメータが修正された前記合成画像の一部を他のCGモデルで置換して前記新たな学習データを生成することを特徴とする請求項1に記載の学習方法。
- 前記学習ステップでは、前記物体のCGモデルのパラメータに、算出した前記パラメータ勾配に所定の負の係数を乗算した値を加えて、前記パラメータを修正することを特徴とする請求項1または2に記載の学習方法。
- 前記物体のCGモデルの前記パラメータは、前記物体の三次元位置、角度、色、模様、形状、反射特性、照明条件の少なくともいずれかに関する情報を含むことを特徴とする請求項1から3のいずれかに記載の学習方法。
- 物体のCGモデルを含む合成画像と、前記物体の教師信号とを有する学習データを生成する学習データ生成ステップと、
前記学習データを用いて、前記合成画像からニューロ演算によって前記物体の情報を認識する認識機能を学習する学習ステップとを含み、
前記学習データ生成ステップでは、誤差逆伝搬法によって前記合成画像に含まれる複数のCGモデルごとに算出される、前記合成画像の画素ごとの誤差の勾配に基づいて、前記合成画像に含まれる前記CGモデルを他のCGモデルで置換して新たな学習データを生成し、
前記学習ステップでは、前記新たな学習データを用いて前記認識機能を学習することを特徴とする学習方法。 - 前記学習データ生成ステップでは、前記合成画像をニューロ演算によって異なる画質に変換することを特徴とする請求項1から5のいずれかに記載の学習方法。
- 物体のCGモデルを含む合成画像と、前記物体の教師信号とを有する学習データを生成する学習データ生成部と、
ニューロ演算によって入力画像に含まれる物体の情報を認識する物体認識部と、
前記物体認識部の認識機能を学習する学習処理部とを備え、
前記学習処理部は、誤差逆伝搬法によって前記合成画像と前記教師信号とから前記合成画像の画素ごとの誤差の勾配を計算し、
前記学習データ生成部は、前記誤差の勾配に基づいて、新たな学習データを生成し、
前記学習処理部は、前記新たな学習データを用いて前記認識機能を学習するとともに、前記誤差の勾配を用いて、前記物体のCGモデルのパラメータに関するパラメータ勾配を算出し、前記パラメータ勾配に基づいて、前記物体のCGモデルのパラメータを修正することを特徴とする学習装置。 - 前記学習データ生成部は、前記学習処理部によって前記物体のCGモデルのパラメータが修正された前記合成画像の一部を他のCGモデルで置換して前記新たな学習データを生成することを特徴とする請求項7に記載の学習装置。
- 前記学習処理部は、前記物体のCGモデルのパラメータに、算出した前記パラメータ勾配に所定の負の係数を乗算した値を加えて、前記パラメータを修正することを特徴とする請求項7または8に記載の学習装置。
- 前記物体のCGモデルの前記パラメータは、前記物体の三次元位置、角度、色、模様、形状、反射特性、照明条件の少なくともいずれかに関する情報を含むことを特徴とする請求項7から9のいずれかに記載の学習装置。
- 物体のCGモデルを含む合成画像と、前記物体の教師信号とを有する学習データを生成する学習データ生成部と、
ニューロ演算によって入力画像に含まれる物体の情報を認識する物体認識部と、
前記物体認識部の認識機能を学習する学習処理部とを備え、
前記学習処理部は、誤差逆伝搬法によって前記合成画像に含まれる複数のCGモデルごとに、前記合成画像の画素ごとの誤差の勾配を計算し、
前記学習データ生成部は、画素ごとの前記誤差の勾配に基づいて、前記合成画像に含まれる前記CGモデルを他のCGモデルで置換して、新たな学習データを生成し、
前記学習処理部は、前記新たな学習データを用いて前記認識機能を学習することを特徴とする学習装置。 - 前記学習データ生成部は、前記合成画像をニューロ演算によって異なる画質に変換することを特徴とする請求項7から11のいずれかに記載の学習装置。
- 請求項1から6のいずれかに記載の学習方法をコンピュータに実行させるためのプログラム。
- 請求項13に記載のプログラムを記録した、コンピュータ読取可能な記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018225420A JP7167668B2 (ja) | 2018-11-30 | 2018-11-30 | 学習方法、学習装置、プログラムおよび記録媒体 |
US16/679,620 US11113606B2 (en) | 2018-11-30 | 2019-11-11 | Learning method, learning device, program, and recording medium |
JP2022168157A JP7416170B2 (ja) | 2018-11-30 | 2022-10-20 | 学習方法、学習装置、プログラムおよび記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018225420A JP7167668B2 (ja) | 2018-11-30 | 2018-11-30 | 学習方法、学習装置、プログラムおよび記録媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022168157A Division JP7416170B2 (ja) | 2018-11-30 | 2022-10-20 | 学習方法、学習装置、プログラムおよび記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020087310A JP2020087310A (ja) | 2020-06-04 |
JP7167668B2 true JP7167668B2 (ja) | 2022-11-09 |
Family
ID=70848710
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018225420A Active JP7167668B2 (ja) | 2018-11-30 | 2018-11-30 | 学習方法、学習装置、プログラムおよび記録媒体 |
JP2022168157A Active JP7416170B2 (ja) | 2018-11-30 | 2022-10-20 | 学習方法、学習装置、プログラムおよび記録媒体 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022168157A Active JP7416170B2 (ja) | 2018-11-30 | 2022-10-20 | 学習方法、学習装置、プログラムおよび記録媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11113606B2 (ja) |
JP (2) | JP7167668B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7136849B2 (ja) * | 2020-07-13 | 2022-09-13 | 三菱ロジスネクスト株式会社 | 学習用データの生成方法、人検知モデルの学習方法、及び学習用データの生成装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6054005B1 (ja) | 2015-06-03 | 2016-12-27 | 三菱電機株式会社 | 推論装置及び推論方法 |
JP2018163444A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2018185759A (ja) | 2017-04-27 | 2018-11-22 | シスメックス株式会社 | 画像解析方法、装置、プログラムおよび深層学習アルゴリズムの製造方法 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011113154B4 (de) * | 2011-09-14 | 2015-12-03 | Airbus Defence and Space GmbH | Maschinelles Lernverfahren zum maschinellen Erlernen von Erscheinungsformen von Objekten in Bildern |
US9767565B2 (en) * | 2015-08-26 | 2017-09-19 | Digitalglobe, Inc. | Synthesizing training data for broad area geospatial object detection |
US9904849B2 (en) * | 2015-08-26 | 2018-02-27 | Digitalglobe, Inc. | System for simplified generation of systems for broad area geospatial object detection |
JP6298035B2 (ja) * | 2015-12-17 | 2018-03-20 | ファナック株式会社 | モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置 |
JP6874757B2 (ja) * | 2016-02-24 | 2021-05-19 | 日本電気株式会社 | 学習装置、学習方法およびプログラム |
US20180308281A1 (en) * | 2016-04-01 | 2018-10-25 | draw, Inc. | 3-d graphic generation, artificial intelligence verification and learning system, program, and method |
WO2017203262A2 (en) * | 2016-05-25 | 2017-11-30 | Metail Limited | Method and system for predicting garment attributes using deep learning |
WO2018033156A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 视频图像的处理方法、装置和电子设备 |
US10163003B2 (en) * | 2016-12-28 | 2018-12-25 | Adobe Systems Incorporated | Recognizing combinations of body shape, pose, and clothing in three-dimensional input images |
CN110235146A (zh) * | 2017-02-03 | 2019-09-13 | 西门子股份公司 | 用于检测图像中的感兴趣对象的方法和装置 |
JP2018124939A (ja) | 2017-02-03 | 2018-08-09 | 日本電信電話株式会社 | 画像合成装置、画像合成方法、及び画像合成プログラム |
US10255681B2 (en) * | 2017-03-02 | 2019-04-09 | Adobe Inc. | Image matting using deep learning |
US10692000B2 (en) * | 2017-03-20 | 2020-06-23 | Sap Se | Training machine learning models |
US11068751B2 (en) * | 2017-03-21 | 2021-07-20 | Nec Corporation | Image processing device, image processing method, and storage medium |
JP6441980B2 (ja) * | 2017-03-29 | 2018-12-19 | 三菱電機インフォメーションシステムズ株式会社 | 教師画像を生成する方法、コンピュータおよびプログラム |
CN107766929B (zh) * | 2017-05-05 | 2019-05-24 | 平安科技(深圳)有限公司 | 模型分析方法及装置 |
KR102117050B1 (ko) * | 2017-09-08 | 2020-05-29 | 삼성전자주식회사 | 이미지 내 휴먼 분리를 위한 전자 장치 및 방법 |
WO2019060787A1 (en) * | 2017-09-21 | 2019-03-28 | Lexset.Ai Llc | DETECTION OF AT LEAST ONE OBJECT IN AN IMAGE, OR A SEQUENCE OF IMAGES, AND DETERMINATION OF A CATEGORY AND AT LEAST ONE DESCRIPTOR FOR EACH OF THESE OBJECTS, GENERATION OF SYNTHETIC LEARNING DATA, AND FORMATION OF A NEURONAL NETWORK USING SYNTHETIC LEARNING DATA |
US10346721B2 (en) * | 2017-11-01 | 2019-07-09 | Salesforce.Com, Inc. | Training a neural network using augmented training datasets |
EP3688666A1 (en) * | 2017-11-03 | 2020-08-05 | Siemens Aktiengesellschaft | Segmenting and denoising depth images for recognition applications using generative adversarial neural networks |
JP7345236B2 (ja) * | 2017-11-10 | 2023-09-15 | 株式会社小松製作所 | 作業車両の動作を推定するための方法、システム、学習済みの分類モデルの製造方法、学習データ、及び学習データの製造方法 |
GB2568475A (en) * | 2017-11-15 | 2019-05-22 | Cubic Motion Ltd | A method of generating training data |
US10755115B2 (en) * | 2017-12-29 | 2020-08-25 | Here Global B.V. | Method, apparatus, and system for generating synthetic image data for machine learning |
US10970765B2 (en) * | 2018-02-15 | 2021-04-06 | Adobe Inc. | Generating user-customized items using a visually-aware image generation network |
US10719742B2 (en) * | 2018-02-15 | 2020-07-21 | Adobe Inc. | Image composites using a generative adversarial neural network |
JP6753874B2 (ja) * | 2018-02-16 | 2020-09-09 | 日本電信電話株式会社 | 分散深層学習システム |
WO2019198233A1 (ja) * | 2018-04-13 | 2019-10-17 | 日本電気株式会社 | 動作認識装置、動作認識方法、及びコンピュータ読み取り可能な記録媒体 |
US11138731B2 (en) * | 2018-05-30 | 2021-10-05 | Siemens Healthcare Gmbh | Methods for generating synthetic training data and for training deep learning algorithms for tumor lesion characterization, method and system for tumor lesion characterization, computer program and electronically readable storage medium |
US10713569B2 (en) * | 2018-05-31 | 2020-07-14 | Toyota Research Institute, Inc. | System and method for generating improved synthetic images |
GB2576322B (en) * | 2018-08-13 | 2022-11-09 | Imperial College Innovations Ltd | Mapping object instances using video data |
US10860836B1 (en) * | 2018-11-15 | 2020-12-08 | Amazon Technologies, Inc. | Generation of synthetic image data for computer vision models |
US10915787B2 (en) * | 2018-11-15 | 2021-02-09 | Toyota Research Institute, Inc. | System and method for generating training data from synthetic images |
US10867444B2 (en) * | 2018-11-29 | 2020-12-15 | Adobe Inc. | Synthetic data generation for training a machine learning model for dynamic object compositing in scenes |
US10885386B1 (en) * | 2019-09-16 | 2021-01-05 | The Boeing Company | Systems and methods for automatically generating training image sets for an object |
-
2018
- 2018-11-30 JP JP2018225420A patent/JP7167668B2/ja active Active
-
2019
- 2019-11-11 US US16/679,620 patent/US11113606B2/en active Active
-
2022
- 2022-10-20 JP JP2022168157A patent/JP7416170B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6054005B1 (ja) | 2015-06-03 | 2016-12-27 | 三菱電機株式会社 | 推論装置及び推論方法 |
JP2018163444A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2018185759A (ja) | 2017-04-27 | 2018-11-22 | シスメックス株式会社 | 画像解析方法、装置、プログラムおよび深層学習アルゴリズムの製造方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2020087310A (ja) | 2020-06-04 |
US20200175376A1 (en) | 2020-06-04 |
JP2022189901A (ja) | 2022-12-22 |
JP7416170B2 (ja) | 2024-01-17 |
US11113606B2 (en) | 2021-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7178396B2 (ja) | 入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法およびコンピュータシステム | |
JP5520387B2 (ja) | 拡張現実における動的モデリングによる頑強なオブジェクト認識 | |
JP2022503647A (ja) | クロスドメイン画像変換 | |
US10977549B2 (en) | Object animation using generative neural networks | |
CN111199531A (zh) | 基于泊松图像融合及图像风格化的交互式数据扩展方法 | |
KR20190120322A (ko) | 작업 차량의 동작을 추정하기 위한 방법, 시스템, 학습된 분류 모델의 제조 방법, 학습 데이터, 및 학습 데이터의 제조 방법 | |
US20240296627A1 (en) | Synthesizing high resolution 3d shapes from lower resolution representations for synthetic data generation systems and applications | |
JP2021065955A (ja) | ロボット制御システム及びその制御方法及びプログラム | |
JP7416170B2 (ja) | 学習方法、学習装置、プログラムおよび記録媒体 | |
WO2022201803A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN117136383A (zh) | 使用图像数据对环境进行建模 | |
WO2019194282A1 (ja) | 画像処理装置および2次元画像生成用プログラム | |
KR102549778B1 (ko) | 다시점에 관련한 복수의 이미지에 대한 전처리를 수행하고, 전처리된 복수의 이미지를 통해 큐브맵을 생성하기 위한 방법, 서버 및 컴퓨터 프로그램 | |
AU2022241513B2 (en) | Transformer-based shape models | |
JP6996455B2 (ja) | 検出器生成装置、モニタリング装置、検出器生成方法及び検出器生成プログラム | |
US20230093827A1 (en) | Image processing framework for performing object depth estimation | |
CN115205487A (zh) | 单目相机人脸重建方法及装置 | |
CN117975201B (zh) | 训练数据生成的方法、装置、计算机设备及存储介质 | |
KR102583675B1 (ko) | 이미지 분류 방법 및 시스템 | |
US20240233146A1 (en) | Image processing using neural networks, with image registration | |
US20230290057A1 (en) | Action-conditional implicit dynamics of deformable objects | |
WO2024075251A1 (ja) | データ生成システム、産業機械、データ生成方法、およびデータ生成プログラム | |
US20240153188A1 (en) | Physics-based simulation of dynamic character motion using generative artificial intelligence | |
US20240221263A1 (en) | System and method for training and using an implicit representation network for representing three dimensional objects | |
JP7035912B2 (ja) | 検出器生成装置、モニタリング装置、検出器生成方法及び検出器生成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220729 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220907 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221010 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7167668 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |