JP2022036918A - 人工知能の使用による3dオブジェクトへのuvマッピング - Google Patents
人工知能の使用による3dオブジェクトへのuvマッピング Download PDFInfo
- Publication number
- JP2022036918A JP2022036918A JP2021132562A JP2021132562A JP2022036918A JP 2022036918 A JP2022036918 A JP 2022036918A JP 2021132562 A JP2021132562 A JP 2021132562A JP 2021132562 A JP2021132562 A JP 2021132562A JP 2022036918 A JP2022036918 A JP 2022036918A
- Authority
- JP
- Japan
- Prior art keywords
- model
- seam
- seams
- predicted
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/008—Cut plane or projection plane definition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、例えば、以下を提供する。
(項目1)
三次元(3D)モデルのためのシームを自動で生成する方法であって、
前記3Dモデルに基づいて、前記3Dモデルの1つ以上の表現を1つ以上の訓練済み機械学習モデルのための入力として生成することと、
前記3Dモデルの前記1つ以上の表現に前記1つ以上の訓練済み機械学習モデルを適用することによって、前記3Dモデルと関連付けられたシーム予測のセットを生成することであって、前記シーム予測のセットに含まれる各シーム予測は、それに沿って前記3Dモデルを切断することができる異なるシームを識別する、前記生成することと、
前記シーム予測のセットに基づいて、前記3Dモデル上に1つ以上のシームを配置することと、
を備える、前記方法。
(項目2)
前記3Dモデルを複数のグループに分割することと、
前記複数のグループのグループごとに、前記3Dモデルのそれぞれの1つ以上の表現を前記1つ以上の訓練済み機械学習モデルのための入力として生成することと、
を更に備える、上記項目に記載の方法。
(項目3)
前記3Dモデルの前記1つ以上の表現は、1つ以上の2D画像を含み、前記シーム予測のセットは、前記1つ以上の2D画像の2D画像ごとに、前記2D画像におけるそれぞれの1つ以上のシーム予測を示す、上記項目のいずれかに記載の方法。
(項目4)
前記3Dモデル上に前記1つ以上のシームを配置することは、前記1つ以上の2D画像の2D画像ごとに、前記2D画像における前記それぞれの1つ以上のシーム予測を前記3Dモデル上に投影することを含む、上記項目のいずれかに記載の方法。
(項目5)
前記3Dモデルの前記1つ以上の表現は、前記3Dモデルのグラフ表現を含み、前記シーム予測のセットは、シームの部位であると予測された前記グラフ表現の1つ以上のエッジを示す、上記項目のいずれかに記載の方法。
(項目6)
前記3Dモデル上に前記1つ以上のシームを配置することは、
シームの部位であると予測された前記グラフ表現の前記1つ以上のエッジのエッジごとに、前記3Dモデルの対応するエッジを判定することと、
前記3Dモデルの前記対応するエッジにシームのエッジを配置することと、
を含む、上記項目のいずれかに記載の方法。
(項目7)
前記3Dモデルの前記1つ以上の表現は、前記3Dモデルのグラフ表現を含み、前記シーム予測のセットは、シームの部位であると予測された前記グラフ表現の1つ以上の頂点を示す、上記項目のいずれかに記載の方法。
(項目8)
前記3Dモデル上に前記1つ以上のシームを配置することは、
シームの部位であると予測された前記グラフ表現の前記1つ以上の頂点の頂点ごとに、前記3Dモデルの対応する頂点を判定することと、
前記3Dモデルの前記対応する頂点にシームの頂点を配置することと、
を含む、上記項目のいずれかに記載の方法。
(項目9)
前記3Dモデルは、複数のエッジを含み、各エッジは、前記エッジがシームに対応する尤度を示すそれぞれのシーム確率値と関連付けられ、前記3Dモデル上に前記1つ以上のシームを配置することは、
前記1つ以上のシームと関連付けられた前記複数のエッジの1つ以上のエッジを判定することと、
前記1つ以上のエッジのエッジごとに、前記エッジと関連付けられた前記それぞれのシーム確率値を更新することと、
を含む、上記項目のいずれかに記載の方法。
(項目10)
前記3Dモデルは、複数の頂点を含み、各頂点は、前記頂点がシームに対応する尤度を示すそれぞれのシーム確率値と関連付けられ、前記3Dモデル上に前記1つ以上のシームを配置することは、
前記1つ以上のシームと関連付けられた前記複数の頂点の1つ以上の頂点を判定することと、
前記1つ以上の頂点の頂点ごとに、前記頂点と関連付けられた前記それぞれのシーム確率値を更新することと、
を含む、上記項目のいずれかに記載の方法。
(項目11)
前記シーム予測のセットのシーム予測の少なくともサブセットを評価することによって、前記シーム予測のセットと関連付けられた検証値を生成することを更に備える、上記項目のいずれかに記載の方法。
(項目12)
前記1つ以上のシームを精緻化することを更に備え、前記1つ以上のシームを精緻化することは、前記1つ以上のシームの1つ以上の特定のシームを除去すること、前記1つ以上のシームの1つ以上の特定のシームの厚みを減少させること、前記1つ以上のシームの2つ以上の特定のシームを接続すること、前記1つ以上のシームの1つ以上の特定のシームを平滑化すること、1つ以上のシーム頂点を除去すること、前記3Dモデルの対称性に基づいて前記1つ以上のシームの1つ以上の特定のシームを調節すること、のうちの1つ以上を含む、上記項目のいずれかに記載の方法。
(項目13)
前記1つ以上のシームを精緻化することを更に備え、前記1つ以上のシームを精緻化することは、
前記1つ以上のシームに基づいて、前記3Dモデルのグラフ表現を生成することと、
前記3Dモデルの前記グラフ表現に前記1つ以上の訓練済み機械学習モデルを適用することによって、前記3Dモデルと関連付けられた精緻化されたシーム予測のセットを生成することと、
前記精緻化されたシーム予測のセットに基づいて、前記1つ以上のシームを更新することと、
を含む、上記項目のいずれかに記載の方法。
(項目14)
命令を含む非一時的コンピュータ可読媒体であって、前記命令は、1つ以上のプロセッサによって実行されるとき、前記1つ以上のプロセッサに、
三次元(3D)モデルに基づいて、前記3Dモデルの1つ以上の表現を1つ以上の訓練済み機械学習モデルのための入力として生成することと、
前記3Dモデルの前記1つ以上の表現に前記1つ以上の訓練済み機械学習モデルを適用することによって、前記3Dモデルと関連付けられたシーム予測のセットを生成することであって、前記シーム予測のセットに含まれる各シーム予測は、それに沿って前記3Dモデルを切断することができる異なるシームを識別する、前記生成することと、
前記シーム予測のセットに基づいて、前記3Dモデル上に1つ以上のシームを配置することと、
のステップを実行させる、前記非一時的コンピュータ可読媒体。
(項目15)
前記1つ以上のプロセッサによって実行されるとき、前記1つ以上のプロセッサに、
前記3Dモデルを複数のグループに分割することと、
前記複数のグループのグループごとに、前記3Dモデルのそれぞれの1つ以上の表現を前記1つ以上の訓練済み機械学習モデルのための入力として生成することと、
のステップを実行させる命令を更に含む、上記項目のいずれかに記載の非一時的コンピュータ可読媒体。
(項目16)
前記3Dモデルの前記1つ以上の表現は、1つ以上の2D画像を含み、前記シーム予測のセットは、前記1つ以上の2D画像の2D画像ごとに、前記2D画像におけるそれぞれの1つ以上のシーム予測を示し、前記3Dモデル上に前記1つ以上のシームを配置することは、前記1つ以上の2D画像の2D画像ごとに、前記3Dモデル上に前記2D画像における前記それぞれの1つ以上のシーム予測を投影することを含む、上記項目のいずれかに記載の非一時的コンピュータ可読媒体。
(項目17)
前記3Dモデルの前記1つ以上の表現は、前記3Dモデルのグラフ表現を含み、前記シーム予測のセットは、シームの部位であると予測された前記グラフ表現の1つ以上のエッジを示し、前記3Dモデル上に前記1つ以上のシームを配置することは、
シームの部位であると予測された前記グラフ表現の前記1つ以上のエッジのエッジごとに、前記3Dモデルの対応するエッジを判定することと、
前記3Dモデルの前記対応するエッジにシームのエッジを配置することと、
を含む、上記項目のいずれかに記載の非一時的コンピュータ可読媒体。
(項目18)
前記3Dモデルの前記1つ以上の表現は、前記3Dモデルのグラフ表現を含み、前記シーム予測のセットは、シームの部位であると予測された前記グラフ表現の1つ以上の頂点を示し、前記3Dモデル上に前記1つ以上のシームを配置することは、
シームの部位であると予測された前記グラフ表現の前記1つ以上の頂点の頂点ごとに、前記3Dモデルの対応する頂点を判定することと、
前記3Dモデルの前記対応する頂点にシームの頂点を配置することと、
を含む、上記項目のいずれかに記載の非一時的コンピュータ可読媒体。
(項目19)
前記1つ以上のプロセッサによって実行されるとき、前記1つ以上のプロセッサに、
前記1つ以上のシームに基づいて、前記3Dモデルのグラフ表現を生成することと、
前記3Dモデルの前記グラフ表現に前記1つ以上の訓練済み機械学習モデルを適用することによって、前記3Dモデルと関連付けられた精緻化されたシーム予測のセットを生成することと、
前記精緻化されたシーム予測のセットに基づいて、前記1つ以上のシームを更新することと、
のステップを実行させる命令を更に含む、上記項目のいずれかに記載の非一時的コンピュータ可読媒体。
(項目20)
1つ以上のソフトウェアアプリケーションを記憶したメモリと、
プロセッサと、を備え、前記プロセッサは、前記1つ以上のソフトウェアアプリケーションを実行するとき、
三次元(3D)モデルに基づいて、前記3Dモデルの1つ以上の表現を1つ以上の訓練済み機械学習モデルのための入力として生成することと、
前記3Dモデルの前記1つ以上の表現に前記1つ以上の訓練済み機械学習モデルを適用することによって、前記3Dモデルと関連付けられたシーム予測のセットを生成することであって、前記シーム予測のセットに含まれる各シーム予測は、それに沿って前記3Dモデルを切断することができる異なるシームを識別する、前記生成することと、
前記シーム予測のセットに基づいて、前記3Dモデル上に1つ以上のシームを配置することと、
のステップを実行するように構成される、システム。
(摘要)
様々な実施形態は、3Dモデルのためのシームを生成するシステム及び技術を示す。技術は、3Dモデルに基づいて、1つ以上の訓練済み機械学習モデルのための1つ以上の入力を生成することと、1つ以上の訓練済み機械学習モデルに1つ以上の入力を提供することと、1つ以上の訓練済み機械学習モデルから、1つ以上の入力に基づいて生成されたシーム予測データを受信することと、シーム予測データに基づいて、3Dモデル上に1つ以上の予測済みシームを配置することと、を含む。
Claims (15)
- 三次元(3D)モデルのためのシームを自動で生成する方法であって、
前記3Dモデルに基づいて、前記3Dモデルの1つ以上の表現を1つ以上の訓練済み機械学習モデルのための入力として生成することと、
前記3Dモデルの前記1つ以上の表現に前記1つ以上の訓練済み機械学習モデルを適用することによって、前記3Dモデルと関連付けられたシーム予測のセットを生成することであって、前記シーム予測のセットに含まれる各シーム予測は、それに沿って前記3Dモデルを切断することができる異なるシームを識別する、前記生成することと、
前記シーム予測のセットに基づいて、前記3Dモデル上に1つ以上のシームを配置することと、
を備える、前記方法。 - 前記3Dモデルを複数のグループに分割することと、
前記複数のグループのグループごとに、前記3Dモデルのそれぞれの1つ以上の表現を前記1つ以上の訓練済み機械学習モデルのための入力として生成することと、
を更に備える、請求項1に記載の方法。 - 前記3Dモデルの前記1つ以上の表現は、1つ以上の2D画像を含み、前記シーム予測のセットは、前記1つ以上の2D画像の2D画像ごとに、前記2D画像におけるそれぞれの1つ以上のシーム予測を示す、請求項1に記載の方法。
- 前記3Dモデル上に前記1つ以上のシームを配置することは、前記1つ以上の2D画像の2D画像ごとに、前記2D画像における前記それぞれの1つ以上のシーム予測を前記3Dモデル上に投影することを含む、請求項3に記載の方法。
- 前記3Dモデルの前記1つ以上の表現は、前記3Dモデルのグラフ表現を含み、前記シーム予測のセットは、シームの部位であると予測された前記グラフ表現の1つ以上のエッジを示す、請求項1に記載の方法。
- 前記3Dモデル上に前記1つ以上のシームを配置することは、
シームの部位であると予測された前記グラフ表現の前記1つ以上のエッジのエッジごとに、前記3Dモデルの対応するエッジを判定することと、
前記3Dモデルの前記対応するエッジにシームのエッジを配置することと、
を含む、請求項5に記載の方法。 - 前記3Dモデルの前記1つ以上の表現は、前記3Dモデルのグラフ表現を含み、前記シーム予測のセットは、シームの部位であると予測された前記グラフ表現の1つ以上の頂点を示す、請求項1に記載の方法。
- 前記3Dモデル上に前記1つ以上のシームを配置することは、
シームの部位であると予測された前記グラフ表現の前記1つ以上の頂点の頂点ごとに、前記3Dモデルの対応する頂点を判定することと、
前記3Dモデルの前記対応する頂点にシームの頂点を配置することと、
を含む、請求項7に記載の方法。 - 前記3Dモデルは、複数のエッジを含み、各エッジは、前記エッジがシームに対応する尤度を示すそれぞれのシーム確率値と関連付けられ、前記3Dモデル上に前記1つ以上のシームを配置することは、
前記1つ以上のシームと関連付けられた前記複数のエッジの1つ以上のエッジを判定することと、
前記1つ以上のエッジのエッジごとに、前記エッジと関連付けられた前記それぞれのシーム確率値を更新することと、
を含む、請求項1に記載の方法。 - 前記3Dモデルは、複数の頂点を含み、各頂点は、前記頂点がシームに対応する尤度を示すそれぞれのシーム確率値と関連付けられ、前記3Dモデル上に前記1つ以上のシームを配置することは、
前記1つ以上のシームと関連付けられた前記複数の頂点の1つ以上の頂点を判定することと、
前記1つ以上の頂点の頂点ごとに、前記頂点と関連付けられた前記それぞれのシーム確率値を更新することと、
を含む、請求項1に記載の方法。 - 前記シーム予測のセットのシーム予測の少なくともサブセットを評価することによって、前記シーム予測のセットと関連付けられた検証値を生成することを更に備える、請求項1に記載の方法。
- 前記1つ以上のシームを精緻化することを更に備え、前記1つ以上のシームを精緻化することは、前記1つ以上のシームの1つ以上の特定のシームを除去すること、前記1つ以上のシームの1つ以上の特定のシームの厚みを減少させること、前記1つ以上のシームの2つ以上の特定のシームを接続すること、前記1つ以上のシームの1つ以上の特定のシームを平滑化すること、1つ以上のシーム頂点を除去すること、前記3Dモデルの対称性に基づいて前記1つ以上のシームの1つ以上の特定のシームを調節すること、のうちの1つ以上を含む、請求項1に記載の方法。
- 前記1つ以上のシームを精緻化することを更に備え、前記1つ以上のシームを精緻化することは、
前記1つ以上のシームに基づいて、前記3Dモデルのグラフ表現を生成することと、
前記3Dモデルの前記グラフ表現に前記1つ以上の訓練済み機械学習モデルを適用することによって、前記3Dモデルと関連付けられた精緻化されたシーム予測のセットを生成することと、
前記精緻化されたシーム予測のセットに基づいて、前記1つ以上のシームを更新することと、
を含む、請求項1に記載の方法。 - 命令を含む非一時的コンピュータ可読媒体であって、前記命令は、1つ以上のプロセッサによって実行されるとき、前記1つ以上のプロセッサに、
三次元(3D)モデルに基づいて、前記3Dモデルの1つ以上の表現を1つ以上の訓練済み機械学習モデルのための入力として生成することと、
前記3Dモデルの前記1つ以上の表現に前記1つ以上の訓練済み機械学習モデルを適用することによって、前記3Dモデルと関連付けられたシーム予測のセットを生成することであって、前記シーム予測のセットに含まれる各シーム予測は、それに沿って前記3Dモデルを切断することができる異なるシームを識別する、前記生成することと、
前記シーム予測のセットに基づいて、前記3Dモデル上に1つ以上のシームを配置することと、
のステップを実行させる、前記非一時的コンピュータ可読媒体。 - 1つ以上のソフトウェアアプリケーションを記憶したメモリと、
プロセッサと、を備え、前記プロセッサは、前記1つ以上のソフトウェアアプリケーションを実行するとき、
三次元(3D)モデルに基づいて、前記3Dモデルの1つ以上の表現を1つ以上の訓練済み機械学習モデルのための入力として生成することと、
前記3Dモデルの前記1つ以上の表現に前記1つ以上の訓練済み機械学習モデルを適用することによって、前記3Dモデルと関連付けられたシーム予測のセットを生成することであって、前記シーム予測のセットに含まれる各シーム予測は、それに沿って前記3Dモデルを切断することができる異なるシームを識別する、前記生成することと、
前記シーム予測のセットに基づいて、前記3Dモデル上に1つ以上のシームを配置することと、
のステップを実行するように構成される、システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/000,856 | 2020-08-24 | ||
US17/000,856 US11915362B2 (en) | 2020-08-24 | 2020-08-24 | UV mapping on 3D objects with the use of artificial intelligence |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022036918A true JP2022036918A (ja) | 2022-03-08 |
JP7129529B2 JP7129529B2 (ja) | 2022-09-01 |
Family
ID=77431260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021132562A Active JP7129529B2 (ja) | 2020-08-24 | 2021-08-17 | 人工知能の使用による3dオブジェクトへのuvマッピング |
Country Status (4)
Country | Link |
---|---|
US (2) | US11915362B2 (ja) |
EP (1) | EP3961573A3 (ja) |
JP (1) | JP7129529B2 (ja) |
CN (1) | CN114092615A (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3958182A1 (en) * | 2020-08-20 | 2022-02-23 | Dassault Systèmes | Variational auto-encoder for outputting a 3d model |
US11816793B2 (en) * | 2021-01-06 | 2023-11-14 | Eagle Technology, Llc | Geospatial modeling system providing 3D geospatial model update based upon iterative predictive image registration and related methods |
US11636649B2 (en) | 2021-01-06 | 2023-04-25 | Eagle Technology, Llc | Geospatial modeling system providing 3D geospatial model update based upon predictively registered image and related methods |
US11978149B2 (en) * | 2021-06-21 | 2024-05-07 | The Weather Company, Llc | UV map using weight painting |
CN116977530A (zh) * | 2023-07-11 | 2023-10-31 | 优酷网络技术(北京)有限公司 | 三维模型的处理方法、装置、电子设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190012578A1 (en) * | 2017-07-07 | 2019-01-10 | Carnegie Mellon University | 3D Spatial Transformer Network |
KR101966732B1 (ko) * | 2018-10-29 | 2019-04-08 | 한국지질자원연구원 | 석회석 광산 갱내의 디지털 사진 자료를 이용한 암상 분석 방법 |
JP2022513272A (ja) * | 2018-12-17 | 2022-02-07 | ボディグラム、インコーポレイテッド | 訓練深層学習ネットワークの3dモデルから大量訓練データセットを自動的に生成する方法及びシステム |
JP7067709B1 (ja) * | 2022-02-28 | 2022-05-16 | 株式会社ワコール | スキンモデルから骨格に基づく体長を統計的に分析するプログラム、装置及び方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2584960A1 (en) | 2004-10-21 | 2006-05-04 | Charles L. Niblett | Methods and materials for conferring resistance to pests and pathogens of plants |
-
2020
- 2020-08-24 US US17/000,856 patent/US11915362B2/en active Active
-
2021
- 2021-08-17 JP JP2021132562A patent/JP7129529B2/ja active Active
- 2021-08-19 CN CN202110957845.XA patent/CN114092615A/zh active Pending
- 2021-08-20 EP EP21192463.4A patent/EP3961573A3/en active Pending
-
2024
- 2024-01-31 US US18/429,283 patent/US20240169661A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190012578A1 (en) * | 2017-07-07 | 2019-01-10 | Carnegie Mellon University | 3D Spatial Transformer Network |
KR101966732B1 (ko) * | 2018-10-29 | 2019-04-08 | 한국지질자원연구원 | 석회석 광산 갱내의 디지털 사진 자료를 이용한 암상 분석 방법 |
JP2022513272A (ja) * | 2018-12-17 | 2022-02-07 | ボディグラム、インコーポレイテッド | 訓練深層学習ネットワークの3dモデルから大量訓練データセットを自動的に生成する方法及びシステム |
JP7067709B1 (ja) * | 2022-02-28 | 2022-05-16 | 株式会社ワコール | スキンモデルから骨格に基づく体長を統計的に分析するプログラム、装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
US11915362B2 (en) | 2024-02-27 |
EP3961573A3 (en) | 2022-03-30 |
JP7129529B2 (ja) | 2022-09-01 |
EP3961573A2 (en) | 2022-03-02 |
CN114092615A (zh) | 2022-02-25 |
US20240169661A1 (en) | 2024-05-23 |
US20220058859A1 (en) | 2022-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7129529B2 (ja) | 人工知能の使用による3dオブジェクトへのuvマッピング | |
CN113039563B (zh) | 学习生成用于训练神经网络的合成数据集 | |
US11977960B2 (en) | Techniques for generating designs that reflect stylistic preferences | |
EP3188033B1 (en) | Reconstructing a 3d modeled object | |
JP7473335B2 (ja) | ソリッドcadフィーチャを推測するためのニューラルネットワークの学習 | |
Wang et al. | Feature based 3D garment design through 2D sketches | |
JP7473336B2 (ja) | ソリッドcadフィーチャを推測するためのニューラルネットワークの学習 | |
US8610712B2 (en) | Object selection in stereo image pairs | |
JP2023526566A (ja) | 高速で深い顔面変形 | |
CN111382496A (zh) | 学习用于推断可编辑特征树的神经网络 | |
JP7294788B2 (ja) | 3d配置のタイプに応じた2d画像の分類 | |
US20150339850A1 (en) | Multi-view drawing apparatus of three-dimensional objects, and method | |
Kazmi et al. | A survey of sketch based modeling systems | |
CN113822993A (zh) | 一种基于3d模型匹配的数字孪生方法和系统 | |
Liu et al. | High-quality textured 3D shape reconstruction with cascaded fully convolutional networks | |
Huang et al. | Network algorithm real-time depth image 3D human recognition for augmented reality | |
Rasoulzadeh et al. | Strokes2Surface: Recovering Curve Networks From 4D Architectural Design Sketches | |
US9665955B1 (en) | Pose-space shape fitting | |
CN115841546A (zh) | 一种场景结构关联的地铁站多视矢量仿真渲染方法及系统 | |
Akande et al. | A Review of Generative Models for 3D Vehicle Wheel Generation and Synthesis | |
Alhamazani et al. | 3DCascade-GAN: Shape completion from single-view depth images | |
US8704828B1 (en) | Inverse kinematic melting for posing models | |
US20240161403A1 (en) | High resolution text-to-3d content creation | |
Kumar et al. | Efficient 3D Object Synthesis and Modeling Through Generative Adversarial Networks | |
CN111381919A (zh) | 形成用于推断可编辑特征树的数据集 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210817 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220812 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7129529 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |