JP2019003615A - オートエンコーダの学習 - Google Patents
オートエンコーダの学習 Download PDFInfo
- Publication number
- JP2019003615A JP2019003615A JP2018083781A JP2018083781A JP2019003615A JP 2019003615 A JP2019003615 A JP 2019003615A JP 2018083781 A JP2018083781 A JP 2018083781A JP 2018083781 A JP2018083781 A JP 2018083781A JP 2019003615 A JP2019003615 A JP 2019003615A
- Authority
- JP
- Japan
- Prior art keywords
- image
- component
- encoder
- auto
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 119
- 230000009466 transformation Effects 0.000 claims abstract description 25
- 239000013598 vector Substances 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000013500 data storage Methods 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 5
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 238000000844 transformation Methods 0.000 abstract description 5
- 238000004519 manufacturing process Methods 0.000 description 13
- 238000011176 pooling Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000005070 sampling Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 230000014616 translation Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000928106 Alain Species 0.000 description 1
- 241001647769 Mirza Species 0.000 description 1
- 241000208125 Nicotiana Species 0.000 description 1
- 235000002637 Nicotiana tabacum Nutrition 0.000 description 1
- 238000012356 Product development Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000004753 textile Substances 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/33—Intelligent editors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/44—Encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/1916—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/04—Constraint-based CAD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
- Architecture (AREA)
Abstract
【解決手段】方法は、画像のデータセットを提供することを含む。各画像は、それぞれのオブジェクト表現を含む。本方法はまた、データセットに基づいてオートエンコーダを学習することを含む。学習は、再構成損失の最小化を含む。再構成損失は、各画像について距離にペナルティを課す項を含む。ペナルティが課される距離は、各画像にオートエンコーダを適用した結果と、各画像のオブジェクト表現に変換群の少なくとも一部を適用した結果の集合との距離である。
【選択図】図1
Description
[1]:“Stacked Denoising Autoencoders:Learning Useful Representations in a Deep Network with a Local Denoising Criterion”,P.Vincent,H.Larcohelle,I.Lajoie,Y.Bengio,P.Manzagol,in The Journal of Machine Learning Research,2010.
[2]:“Reducing the Dimensionality of Data with Neural Networks”,G.E.Hinton,R.R.Salakhutdinov,in Science,2006.
[3]:“Generalized Denoising Auto−Encoders as Generative Models”,Y.Bengio,L.Yao,G.Alain,P.Vincent,in Advances in Neural Information Processing Systems,2013.
[4]:“Learning Deep Architectures for AI”,Y.Bengio,in Foundations and Trends in Machine Learning,2009.
[5]:“Extracting and Composing Robust Features with Denoising Autoencoders”,P.Vincent,H.Larochelle,Y.Bengio,P.Manzagol,W.Cohen,A.McCallum,S.Roweis,in International Conference on Machine Learning,2008.
[6]:“Greedy Layer−Wise Training of Deep Networks”,Y.Bengio,P.Lamblin,D.Popovici,H.Larcohelle,B.Scholkopf,J.Platt,T.Hoffman,in Neural Information Processing Systems,2007.
[7]:“Auto−Encoding Variational Bayes”,D.Kingma,M.Welling,in International Conference on Learning Representations,2014.
[8]:“Stochastic Backpropagation and Approximate Inference in Deep Generative Models”,D.Rezende,S.Mohamed,D.Wierstra,in International Conference on Machine Learning,2014.
[9]:“Generative Adversarial Nets”,I.Goodfellow,J.Pouget−Abadie,M.Mirza,B.Xu,D.Warde−Farley,S.Ozair,A.Courville,Y.Bengio,in Advances in Neural Information Processing Systems,2014.
[10]:“A Fast Learning Algorithm for Deep Belief Nets”,G.Hinton,S.Osindero,Y.The,in Neural Computation,2006.
・前記オートエンコーダは、変換群の少なくとも一部に関して不変である。
・前記オートエンコーダは、前記変換群の前記少なくとも一部のそれぞれを入力画像のオブジェクト表現に適用するように構成された変換成分と、前記変換成分から得られる結果に適用されるように構成された集約成分と、符号化成分と、復号成分と、を含む。
・前記符号化成分は、前記変換成分の各結果に並列に適用されるように構成されている。
・前記集約成分は、前記符号化成分の結果に適用されるように構成されている。
・前記復号成分は、前記集約成分の結果に適用されるように構成されている。
・前記符号化成分、および/または、前記復号成分は、畳み込みニューラルネットワークを含む。
・前記集約成分が適用されるように構成された対象である第1の成分から得られる結果は、同じサイズのベクトルであり、前記集約成分は、各座標について、前記集約成分が適用されるように構成された対象である前記ベクトルの前記座標の値のうち、最大値に等しい値を有する同じサイズのベクトルを出力する。
・前記画像は表面占有(surface occupancy)3Dモデルであり、前記変換群は平行移動を含む。かつ/あるいは、
・前記オブジェクト表現は、それぞれ、同じオブジェクトクラスのインスタンスの表現であり、前記データセットの各画像は無向フレームを有し、各オブジェクト表現は、前記無向フレーム内で整列(aligned)し、前記変換群は、前記無向フレームにおける1つの整列(alignment)から前記無向フレームにおける別の整列への全ての回転を含む。
そのような学習において古典的であるように、本方法は、画像のデータセットを提供すること(S10)と、当該データセットに基づいてオートエンコーダを学習すること(S20)とを含む。学習は、再構成損失の最小化を含む。最小化は、どのような方法で行ってもよく、正確な最小化、または疑似最小化を構成してもよい。再構成損失は、データセットのそれぞれの画像について、データセットのそれぞれの画像の距離にペナルティを課す項を含むか、またはそれらからなる。距離は、各画像について、同じ距離関数の値であってもよい。
[11]:“Alignment of 3D models”,M.Chaouch,A.Verroust−Blondet,in International Conference on Shape Modeling and Applications,2008.
[12]:“Autocorrelation Descriptor for Efficient Co‐Alignment of 3D Shape Collections”,M.Averkiou,V.Kim,N.Mitra,in Computer Graphics Forum,2016.
[13]:“Co−registration of Surfaces by 3D Least Squares Matching”,D.Akca,in Photogrammetric Engineering and Remote Sensing,2010.
[14]:“Registration of 3D Point Clouds and Meshes:A Survey From Rigid to Non−Rigid”,G.Tam,Z.Cheng,Y.Lai,F.Langbein,Y.Liu,A.David Marshall,R.Martin,X.Sun,P.Rosin,in IEEE Transactions on Visualization and Computer Graphics,2013.
[15]:“A Segmentation Transfer Approach for Rigid Models”,E.Elghoul,A.Verroust−Blondet,M.Chaouch,in Journal of Information Science and Engineering,2015.
[16]:“Consistent Segmentation of 3D Models”,A.Golovinskiy,T.Funkhouser,in Computer and Graphics,2009.
[17]:“Joint Shape Segmentation with Linear Programming”,Q.Huang,V.Koltun,L.Guibas,in SIGGRAPH Asia,2011.
[18]:“Active Co−Analysis of a Set of Shapes”,Y.Wang,S.Asafi,O.Van Kaick,H.Zhang,D.Cohen−Or,B.Chen,in SIGGRAPH Asia,2012.
[19]:“Learning Part−based Templates from Large Collections of 3D Shapes”,V.Kim,W.Li,N.Mitra,S.Chaudhuri,S.DiVerdi,T.Funkhouser,in SIGGRAPH,2013.
あるいは、本方法は、Generative Adversarial Network([9]で説明)、またはDeep Belief Network([10]で説明)のような、他の任意の生成モデルを形成してもよい。
fwは、図4の例同様、CNNであり、これにより潜在ベクトルziが得られる。しかしながら、他のタイプのエンコーダを実装することもできる。このアーキテクチャのオートエンコーダは、変換成分から得られた結果、すなわち、図4の例におけるエンコーダfwから出力された潜在ベクトルziに適用されるように構成された、集約ビュー・プーリング60をさらに含む。
上述の応用例は、すべての3D回転の群を用いることで、完全に非整列の3Dモデルに拡張することができる。
Claims (13)
- 各画像がそれぞれのオブジェクト表現を含む、画像のデータセットを提供することと、
前記データセットに基づいてオートエンコーダ(
を含むことを特徴とする、コンピュータによって実施される、オートエンコーダを学習するための方法。 - 前記オートエンコーダは、前記変換群の少なくとも一部に関して不変である
ことを特徴とする請求項1に記載の方法。 - 前記オートエンコーダは、前記変換群の前記少なくとも一部のそれぞれを入力画像のオブジェクト表現に適用するように構成された変換成分と、前記変換成分から得られる結果に適用されるように構成された集約成分(60)と、符号化成分(fw)と、復号成分(gW´)とを含む
ことを特徴とする請求項2に記載の方法。 - 前記符号化成分は、前記変換成分の各結果(51〜54)に並列に適用されるように構成されている
ことを特徴とする請求項3に記載の方法。 - 前記集約成分は、前記符号化成分の結果(zi)に適用されるように構成されている
ことを特徴とする請求項4に記載の方法。 - 前記復号成分は、前記集約成分の結果(z)に適用されるように構成されている
ことを特徴とする請求項3、4、または5に記載の方法。 - 前記符号化成分、および/または、前記復号成分は、畳み込みニューラルネットワークを含む
ことを特徴とする請求項3〜6のいずれか1つに記載の方法。 - 前記集約成分が適用されるように構成された対象である第1の成分から得られる結果は、同じサイズのベクトルであり、前記集約成分は、各座標(l)について、前記集約成分が適用されるように構成された対象である前記ベクトルの前記座標の値のうち、最大値(
ことを特徴とする請求項3〜7のいずれか1つに記載の方法。 - 前記画像は表面占有3Dモデルであり、前記変換群は平行移動を含む
ことを特徴とする請求項1〜8のいずれか1つに記載の方法。 - 前記オブジェクト表現は、それぞれ、同じオブジェクトクラスのインスタンスの表現であり、前記データセットの各画像は無向フレームを有し、各オブジェクト表現は、前記無向フレーム内で整列し、前記変換群は、前記無向フレームにおける1つの整列から前記無向フレームにおける別の整列へのすべての回転を含む
ことを特徴とする請求項1〜9のいずれか1つに記載の方法。 - エンコーダ、デコーダ、および/または、請求項1〜10のいずれか1つに記載の方法で学習可能なオートエンコーダの全体、および/または、請求項1〜10のいずれか1つに記載の方法を実行するための命令を含むコンピュータプログラムを含む
ことを特徴とするデータ構造。 - 請求項11に記載のデータ構造を記録したデータ記憶媒体を備える装置。
- 前記データ記憶媒体に接続されたプロセッサをさらに備えている
ことを特徴とする請求項12に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17305475.0 | 2017-04-27 | ||
EP17305475.0A EP3396603B1 (en) | 2017-04-27 | 2017-04-27 | Learning an autoencoder |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019003615A true JP2019003615A (ja) | 2019-01-10 |
JP7388811B2 JP7388811B2 (ja) | 2023-11-29 |
Family
ID=58709899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018083781A Active JP7388811B2 (ja) | 2017-04-27 | 2018-04-25 | オートエンコーダの学習 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10839267B2 (ja) |
EP (2) | EP3396603B1 (ja) |
JP (1) | JP7388811B2 (ja) |
CN (1) | CN108804094B (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087432A (ja) * | 2018-11-20 | 2020-06-04 | ザ・ボーイング・カンパニーThe Boeing Company | 人工知能ベースの製造部品設計 |
JP2020154654A (ja) * | 2019-03-19 | 2020-09-24 | 富士通株式会社 | 推定プログラム、推定装置および推定方法 |
WO2021161823A1 (ja) * | 2020-02-14 | 2021-08-19 | 住友電気工業株式会社 | 判定装置、復元モデル生成方法、及びコンピュータプログラム |
JP2022015236A (ja) * | 2020-07-08 | 2022-01-21 | 日本電信電話株式会社 | 学習装置、学習済みモデルの生成方法および学習プログラム |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3396603B1 (en) | 2017-04-27 | 2019-12-25 | Dassault Systèmes | Learning an autoencoder |
EP3655926A1 (en) * | 2017-08-08 | 2020-05-27 | Siemens Aktiengesellschaft | Synthetic depth image generation from cad data using generative adversarial neural networks for enhancement |
US10650001B2 (en) * | 2017-10-05 | 2020-05-12 | Google Llc | Disaggregating latent causes for computer system optimization |
US10586370B2 (en) | 2018-01-08 | 2020-03-10 | Facebook Technologies, Llc | Systems and methods for rendering avatars with deep appearance models |
US10824909B2 (en) * | 2018-05-15 | 2020-11-03 | Toyota Research Institute, Inc. | Systems and methods for conditional image translation |
EP3671574B1 (en) * | 2018-12-19 | 2024-07-10 | Robert Bosch GmbH | Device and method to improve the robustness against adversarial examples |
EP3671660A1 (en) * | 2018-12-20 | 2020-06-24 | Dassault Systèmes | Designing a 3d modeled object via user-interaction |
EP3674984B1 (en) | 2018-12-29 | 2024-05-15 | Dassault Systèmes | Set of neural networks |
EP3674983B1 (en) | 2018-12-29 | 2024-09-18 | Dassault Systèmes | Machine-learning for 3d modeled object inference |
EP3675061A1 (en) * | 2018-12-29 | 2020-07-01 | Dassault Systèmes | Forming a dataset for inference of editable feature trees |
KR102198461B1 (ko) * | 2019-01-15 | 2021-01-05 | 연세대학교 산학협력단 | 편향성이 감소된 분류장치 및 방법 |
US11443137B2 (en) | 2019-07-31 | 2022-09-13 | Rohde & Schwarz Gmbh & Co. Kg | Method and apparatus for detecting signal features |
US10853728B1 (en) | 2019-08-23 | 2020-12-01 | Capital One Services, Llc | Automated data ingestion using an autoencoder |
CN110648276B (zh) * | 2019-09-25 | 2023-03-31 | 重庆大学 | 基于流形映射与字典学习的高维图像数据降维方法 |
CN115039108A (zh) | 2019-10-17 | 2022-09-09 | 华为技术有限公司 | 学习数据密度函数 |
US11157772B2 (en) * | 2019-10-28 | 2021-10-26 | Element Ai Inc. | System and method for generating adversarial examples |
RU2745445C1 (ru) * | 2020-01-27 | 2021-03-25 | Автономная некоммерческая образовательная организация высшего образования "Сколковский институт науки и технологий" | Способ генерации трёхмерных облаков точек |
WO2021191499A1 (en) * | 2020-03-26 | 2021-09-30 | Nokia Technologies Oy | A method, an apparatus and a computer program product for video encoding and video decoding |
KR102398931B1 (ko) * | 2020-05-11 | 2022-05-17 | 성균관대학교산학협력단 | 포인트 오토인코더, 듀얼 오토인코더, 및 이를 이용한 포인트 클라우드의 차원 변환 방법 |
RU2740683C1 (ru) * | 2020-07-23 | 2021-01-19 | Общество с ограниченной ответственностью "Интеллектуальные электроэнергетические системы" | Способ перераспределения функций между устройствами автоматики при возникновении неисправностей в автоматизированной системе |
US20220215289A1 (en) * | 2021-01-06 | 2022-07-07 | Hewlett Packard Enterprise Development Lp | Managing data drift and outliers for machine learning models trained for image classification |
US11341699B1 (en) | 2021-03-09 | 2022-05-24 | Carmax Enterprise Services, Llc | Systems and methods for synthetic image generation |
CN113610125B (zh) * | 2021-07-23 | 2023-12-22 | 北京航空航天大学 | 一种基于编码器-解码器图神经网络的高光谱分类方法 |
CN116912351B (zh) * | 2023-09-12 | 2023-11-17 | 四川大学 | 基于人工智能的颅内结构成像的修正方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281541A (ja) * | 2002-03-20 | 2003-10-03 | Fuji Xerox Co Ltd | 認識装置および方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7599847B2 (en) * | 2000-06-09 | 2009-10-06 | Airport America | Automated internet based interactive travel planning and management system |
US8429512B2 (en) * | 2008-06-23 | 2013-04-23 | Romat At Tel Aviv University Ltd. | Reduced complexity LDPC decoder |
US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
US9536177B2 (en) * | 2013-12-01 | 2017-01-03 | University Of Florida Research Foundation, Inc. | Distributive hierarchical model for object recognition in video |
US11836746B2 (en) * | 2014-12-02 | 2023-12-05 | Fair Isaac Corporation | Auto-encoder enhanced self-diagnostic components for model monitoring |
US11221990B2 (en) * | 2015-04-03 | 2022-01-11 | The Mitre Corporation | Ultra-high compression of images based on deep learning |
CN105069400B (zh) * | 2015-07-16 | 2018-05-25 | 北京工业大学 | 基于栈式稀疏自编码的人脸图像性别识别系统 |
US10296846B2 (en) * | 2015-11-24 | 2019-05-21 | Xerox Corporation | Adapted domain specific class means classifier |
US10354199B2 (en) * | 2015-12-07 | 2019-07-16 | Xerox Corporation | Transductive adaptation of classifiers without source data |
US9916542B2 (en) * | 2016-02-02 | 2018-03-13 | Xerox Corporation | Domain adaptation by multi-noising stacked marginalized denoising encoders |
CN105868706A (zh) * | 2016-03-28 | 2016-08-17 | 天津大学 | 一种基于稀疏自编码的三维模型识别方法 |
KR101836096B1 (ko) * | 2016-12-02 | 2018-03-12 | 주식회사 수아랩 | 이미지 데이터의 상태 판단 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램 |
EP3396603B1 (en) * | 2017-04-27 | 2019-12-25 | Dassault Systèmes | Learning an autoencoder |
US10803347B2 (en) * | 2017-12-01 | 2020-10-13 | The University Of Chicago | Image transformation with a hybrid autoencoder and generative adversarial network machine learning architecture |
-
2017
- 2017-04-27 EP EP17305475.0A patent/EP3396603B1/en active Active
- 2017-04-27 EP EP19191973.7A patent/EP3599575B1/en active Active
-
2018
- 2018-04-25 JP JP2018083781A patent/JP7388811B2/ja active Active
- 2018-04-27 CN CN201810394084.XA patent/CN108804094B/zh active Active
- 2018-04-27 US US15/965,123 patent/US10839267B2/en active Active
-
2020
- 2020-05-20 US US16/879,507 patent/US11468268B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281541A (ja) * | 2002-03-20 | 2003-10-03 | Fuji Xerox Co Ltd | 認識装置および方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087432A (ja) * | 2018-11-20 | 2020-06-04 | ザ・ボーイング・カンパニーThe Boeing Company | 人工知能ベースの製造部品設計 |
JP7319141B2 (ja) | 2018-11-20 | 2023-08-01 | ザ・ボーイング・カンパニー | 人工知能ベースの製造部品設計 |
JP2020154654A (ja) * | 2019-03-19 | 2020-09-24 | 富士通株式会社 | 推定プログラム、推定装置および推定方法 |
JP7205328B2 (ja) | 2019-03-19 | 2023-01-17 | 富士通株式会社 | 推定プログラム、推定装置および推定方法 |
WO2021161823A1 (ja) * | 2020-02-14 | 2021-08-19 | 住友電気工業株式会社 | 判定装置、復元モデル生成方法、及びコンピュータプログラム |
JP2022015236A (ja) * | 2020-07-08 | 2022-01-21 | 日本電信電話株式会社 | 学習装置、学習済みモデルの生成方法および学習プログラム |
JP7315929B2 (ja) | 2020-07-08 | 2023-07-27 | 日本電信電話株式会社 | 学習装置、学習済みモデルの生成方法および学習プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20180314917A1 (en) | 2018-11-01 |
EP3599575B1 (en) | 2023-05-24 |
CN108804094A (zh) | 2018-11-13 |
CN108804094B (zh) | 2024-04-05 |
JP7388811B2 (ja) | 2023-11-29 |
US20200285907A1 (en) | 2020-09-10 |
US10839267B2 (en) | 2020-11-17 |
EP3599575A1 (en) | 2020-01-29 |
EP3396603B1 (en) | 2019-12-25 |
EP3396603A1 (en) | 2018-10-31 |
US11468268B2 (en) | 2022-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7388811B2 (ja) | オートエンコーダの学習 | |
JP7464387B2 (ja) | 3dモデル化オブジェクト推定のための機械学習 | |
JP7491685B2 (ja) | ニューラルネットワークのセット | |
JP6878011B2 (ja) | 3dモデル化オブジェクトの再構築 | |
Groueix et al. | A papier-mâché approach to learning 3d surface generation | |
JP7343963B2 (ja) | 画像を入力とする関数を学習するためのデータセット | |
JP7473335B2 (ja) | ソリッドcadフィーチャを推測するためのニューラルネットワークの学習 | |
JP7431028B2 (ja) | ユーザインタラクションを介した3dモデルオブジェクトのデサイニング | |
JP7473336B2 (ja) | ソリッドcadフィーチャを推測するためのニューラルネットワークの学習 | |
JP2017130188A (ja) | 三次元モデル化オブジェクトの圧縮 | |
JP2018073393A (ja) | 深度マップからの現実の物体の3d再構築 | |
Tang et al. | Skeletonnet: A topology-preserving solution for learning mesh reconstruction of object surfaces from rgb images | |
JP2018109948A (ja) | パラメトリックビュー関数に基づくデータベースの照会 | |
JP2022036024A (ja) | パラメータ化された3dモデルを出力するニューラルネットワーク | |
JP2022036023A (ja) | 3dモデルを出力する変分オートエンコーダ | |
EP4120203A1 (en) | Segmenting a 3d modeled object representing a mechanical assembly | |
JP2021131854A (ja) | 変形の基礎学習 | |
Friedrich et al. | On the potential and challenges of neural style transfer for three-dimensional shape data | |
JP2017168081A (ja) | 記述子を用いた3dオブジェクトの位置特定 | |
JP2017162447A (ja) | 量子化を用いた3dオブジェクトの位置特定 | |
JP2022119713A (ja) | 副次的な3d変形の学習 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7388811 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |