JP6675691B1 - 学習用データ生成方法、プログラム、学習用データ生成装置、および、推論処理方法 - Google Patents
学習用データ生成方法、プログラム、学習用データ生成装置、および、推論処理方法 Download PDFInfo
- Publication number
- JP6675691B1 JP6675691B1 JP2019008307A JP2019008307A JP6675691B1 JP 6675691 B1 JP6675691 B1 JP 6675691B1 JP 2019008307 A JP2019008307 A JP 2019008307A JP 2019008307 A JP2019008307 A JP 2019008307A JP 6675691 B1 JP6675691 B1 JP 6675691B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- learning
- background image
- learning data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 146
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000012545 processing Methods 0.000 claims abstract description 196
- 238000001514 detection method Methods 0.000 claims abstract description 130
- 238000009877 rendering Methods 0.000 claims abstract description 92
- 238000003384 imaging method Methods 0.000 claims abstract description 42
- 230000002194 synthesizing effect Effects 0.000 claims description 15
- 238000010586 diagram Methods 0.000 abstract description 31
- 238000013500 data storage Methods 0.000 description 25
- 238000006243 chemical reaction Methods 0.000 description 17
- 238000000605 extraction Methods 0.000 description 17
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000005457 optimization Methods 0.000 description 8
- 239000002131 composite material Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 101150052583 CALM1 gene Proteins 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000000946 synaptic effect Effects 0.000 description 3
- 101150050114 CTL1 gene Proteins 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101150052401 slc44a1 gene Proteins 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
第1実施形態について、図面を参照しながら、以下、説明する。
図1は、第1実施形態に係る学習用データ生成システム1000の概略構成図である。
以上のように構成された学習用データ生成システム1000の動作について、以下、説明する。
ステップS11において、背景画像データ取得部1は、背景画像データ格納部DB1から1つの背景画像データを取得する。なお、説明便宜のため、背景画像データ取得部1は、背景画像データ格納部DB1から、図3の状況によりカメラCam1により撮像された背景画像Img0(図4)を取得するものとし、以下、この場合について、説明する。
ステップS12において、CG処理部2は、CG物体を3次元空間SPに配置するときに、CG物体が積み重なった状態で配置される最大の数を設定し、当該数を超えた数でCG物体が積み重なった状態とならないようにする。
ステップS15において、CG処理部2により生成されたCG物体(上記処理により、座標情報、姿勢等が決定されたCG物体)を、背景画像Img0に合成するためのレンダリング処理が実行される。
ステップS16において、学習用データ生成部4は、ステップS15により取得されたレンダリング結果、すなわち、各CG物体を背景画像Img0へ投影して合成するレンダリング処理により取得された画像を学習用データ(学習用画像)として、学習用データ格納部DB2に保存する。
ステップS17において、CG処理部2の3D−2D変換部25は、投影変換により、各CG物体のそれぞれの頂点の3次元座標から、レンダリング画像Img1上の2次元座標を取得する。そして、3D−2D変換部25は、各CG物体をレンダリング画像Img1上において囲む領域を規定する2Dバウンディングボックスを決定する(ステップS18)。3D−2D変換部25は、決定した各CG物体の2Dバウンディングボックスを特定するための情報をデータData_coordinate(Bbox(i))として学習用データ生成部4に出力する。なお、「Bbox(i)」は、i番目のCG物体の2Dバウンディングボックスを示す表記であるものとする。
次に、第1実施形態の第1変形例について、説明する。
次に、第2実施形態について、説明する。
図9は、第2実施形態に係る学習用データ生成システム2000の概略構成図である。
以上のように構成された学習用データ生成システム2000の動作について、以下説明する。
ステップS21〜S25の処理は、第1実施形態のステップS11〜S15の処理と同様である。
ステップS26において、CG処理部2の3D−2D変換部25は、投影変換により、各CG物体のそれぞれの頂点の3次元座標から、レンダリング画像Img2上の2次元座標を取得する。そして、3D−2D変換部25は、各CG物体をレンダリング画像Img2上において、視点(背景画像Img0のカメラ位置)から見たときに他のCG物体に遮蔽されているCG物体を検出し、完全または一部遮蔽されていると判定されたCG物体を学習データ取得対象から除外する。つまり、ステップS26の処理により、遮蔽されていないCG物体のみが学習データ取得対象に設定される。
ステップS27において、学習用データ生成部4Aは、2Dバウンディングボックス(レンダリング画像上の各CG物体を囲む領域を決定するためのデータ)で規定される領域をクロップ領域に設定し、当該クロップ領域の画像を抽出する。i番目のCG物体のクロップ領域を抽出した画像をクロップ画像Img_crop(i)と表記する。
ステップS28において、学習用データ生成部4Aは、CG処理部2Aから出力されるデータLabel_posture(i)(i番目のCG物体のレンダリング画像上の姿勢を示すデータ)を取得し、当該データを学習用データ格納部DB2に保存する。なお、データLabel_posture(i)は、クロップ画像Img_crop(i)に含まれるCG物体の姿勢を示すデータである。
さらに、クロップ画像に含まれるCG物体は、学習用データ生成装置100AのCG処理部2Aにより生成したものであるので、各CG物体を背景画像Img0上に投影したとき、各CG物体の姿勢がどのようになるのかを計算により正確に求めることができる。その結果、クロップ画像上において、各CG物体の姿勢を特定する学習用姿勢ラベル(各CG物体のクロップ画像上での姿勢を特定するデータ(例えば、クラスの番号))は、極めて正確なものとなる。
次に、第3実施形態について説明する。
次に、第4実施形態について説明する。
図19は、第4実施形態に係る学習用データ生成システム4000の概略構成図である。
(1)Img_render(i)(鍵穴を合成した画像)
(2)Label_key(i)(鍵種別の情報と鍵位置の情報とを含むラベル)
を含むデータであるものとする。
以上のように構成された学習用データ生成システム4000の動作について、以下、説明する。
ステップS31において、背景画像データ取得部1Aは、背景画像データ格納部DB1から1つの背景画像データを取得する。なお、説明便宜のため、背景画像データ取得部1Aは、背景画像データ格納部DB1から、図20に示す背景画像Img4を取得するものとし、以下、この場合について、説明する。
CG処理部2Bは、鍵情報決定部22Aにより、CG合成するための鍵の種別Key_type(i)を特定し(ステップS32)、また、CG合成する鍵の形状についての3次元空間の位置情報を3D−2D変換して、背景画像上の2次元座標データを取得し、取得した当該2次元データを含むデータKey_pos(i)を特定する(ステップS33)。なお、ステップS33において、鍵の位置情報Key_pos(i)は、背景画像(合成画像)上において、鍵を合成するCG物体の面の左右のいずれの領域に配置されるかを特定できる情報を含むものであってもよい。
ステップS34において、レンダリング処理部3Aは、背景画像データ取得部1Aから出力されるデータInfo1、データInfo2(D1A)、および、画像データD1A(鍵穴を合成する被対象物を抽出した画像)と、CG処理部2Bから出力されるデータData_CG_objとに基づいて、CG処理部2Bにより生成されたCG物体(鍵穴形状のCG物体)を、画像D1Aに合成することで、合成画像データImg_render(i)(レンダリング結果の画像)を取得する。
(1)i=1の場合(鍵key1を被合成物体の正面の左側領域に合成する場合)
鍵種類:key1
合成画像データ:Img_render(1)
学習ラベル用ラベル:Label_key(1)=(key1,pos_L)
pos_L:鍵穴形状CG物体の位置情報
(2)i=2の場合(鍵key1を被合成物体の正面の右側領域に合成する場合)
鍵種類:key1
合成画像データ:Img_render(2)
学習ラベル用ラベル:Label_key(2)=(key1,pos_R)
pos_R:鍵穴形状CG物体の位置情報
(3)i=3の場合(鍵key2を被合成物体の正面の左側領域に合成する場合)
鍵種類:key2
合成画像データ:Img_render(3)
学習ラベル用ラベル:Label_key(3)=(key2,pos_L)
pos_L:鍵穴形状CG物体の位置情報
(4)i=4の場合(鍵key2を被合成物体の正面の右側領域に合成する場合)
鍵種類:key2
合成画像データ:Img_render(4)
学習ラベル用ラベル:Label_key(4)=(key2,pos_R)
pos_R:鍵穴形状CG物体の位置情報
また、図24に示すように、レンダリング処理部3Aは、例えば、以下の学習用データを生成する。
(5)i=5の場合(鍵key3を被合成物体の正面の左側領域に合成する場合)
鍵種類:key3
合成画像データ:Img_render(5)
学習ラベル用ラベル:Label_key(5)=(key3,pos_L)
pos_L:鍵穴形状CG物体の位置情報
(6)i=6の場合(鍵key2を被合成物体の正面の右側領域に合成する場合)
鍵種類:key3
合成画像データ:Img_render(6)
学習ラベル用ラベル:Label_key(6)=(key3,pos_R)
pos_R:鍵穴形状CG物体の位置情報
(7)i=7の場合(鍵key4を被合成物体の正面の左側領域に合成する場合)
鍵種類:key4
合成画像データ:Img_render(7)
学習ラベル用ラベル:Label_key(7)=(key4,pos_L)
pos_L:鍵穴形状CG物体の位置情報
(8)i=8の場合(鍵key4を被合成物体の正面の右側領域に合成する場合)
鍵種類:key4
合成画像データ:Img_render(8)
学習ラベル用ラベル:Label_key(8)=(key4,pos_R)
pos_R:鍵穴形状CG物体の位置情報
そして、レンダリング処理部3Aは、取得した合成画像データImg_render(i)を学習用データ生成部4Bに出力する。
学習用データ生成部4Bは、レンダリング処理部3Aから出力される合成画像データImg_render(i)を学習用画像として、学習用データ格納部DB2に保存する(ステップS35)。
次に、第5実施形態について説明する。
図25は、第5実施形態に係る学習推論処理システムSys1の概略構成図である。
図26に示すように、学習処理装置200は、学習用データ入力部201と、学習用モデル202と、パラメータ更新部203と、判定部204とを備える。
を満たす最適パラメータθ_optを、上記のパラメータを更新(調整)する処理を繰り返して取得する。なお、条件付きP(y|x)は、出力データが教師データに近い程、大きな値をとるものとする。
σ:標準偏差
なお、xiは、集合xに含まれるベクトルであり、yiは、集合yに含まれるベクトルであり、yi_correctは、xiを入力としたときの教師データ(正解データ)(ベクトルデータ)である。H(xi;θ)は、入力xiに対して、例えば、複数層からなるニューラルネットワークの処理を施し、出力を取得する処理に相当する演算子を表している。パラメータθは、例えば、当該ニューラルネットワークのシナプス結合の重み付け等を決定するパラメータである。なお、H(xi;θ)には、非線形の演算が含まれてもよい。
次に、推論処理装置300の構成について説明する。
以上のように構成された推論処理装置300の動作について、説明する。
ステップS41において、入力インターフェース31は、カメラC1が撮像したデータDPin(画像Img5)を入力することで、カメラC1からの映像フレームを取得する。
画像認識抽出部32は、画像Img5に写っている対象物体(直方体の物体)を画像認識処理で認識し、対象物体の画像領域を抽出する(ステップS42)。そして、画像認識抽出部32は、抽出した画像を画像DP2として、予測部33に出力する。
ステップS44において、2D座標検出部34は、予測モデル332により取得されたデータDP3に基づいて、特定された画像DP2の鍵のおおよその位置(例えば、所定の表面の右側領域、あるいは、左側領域)に基づいて、鍵穴パターン格納部DB4から取得した鍵穴パターンのテンプレートを用いたパターンマッチングを行う。そして、2D座標検出部34は、パターンマッチングの検出結果のデータDP4と、パターンマッチングの検出精度accr1とを検出精度判定部35に出力する。なお、パターンマッチングの検出精度accr1は、例えば、以下の(1)、(2)により取得する。
(1)パターンマッチング対象画像(画像領域)の各画素の画素値P(i,j)(座標(i,j)の画素値)と、鍵穴パターンのテンプレートの各画素Pt(i,j)(座標(i,j)の画素値)との差分の絶対値の総和(パターンマッチングの対象とする全画像領域における総和)sum_errorを算出する。
(2)(1)で算出した総和sum_errorから、
accr1=f1(sum_error)
f1(x):xについての単調減少関数(x≧0)
に相当する処理により、パターンマッチングの検出精度accr1を取得する。なお、関数f1(x)は、x≧0で定義され、xについての単調減少関数であるものとする(つまり、f1(0)で最大値をとる関数であるものとする)。
ステップS45において、検出精度判定部35は、2D座標検出部34から出力されるパターンマッチングの検出結果のデータDP4と、パターンマッチングの検出精度accr1とを入力し、入力したデータに基づいて、2D座標検出部34によるパターンマッチングの精度の判定を行う。パターンマッチングの精度の判定は、例えば、パターンマッチングの検出精度accr1を所定の閾値Th1と比較することで実行される。
撮影パラメータ調整部36は、精度検出結果データRst1が十分な精度ではないことを示すデータであるので、カメラC1の撮影パラメータ(例えば、焦点距離)を変更させるための制御信号Ctl1を生成し、カメラC1に出力する。これにより、例えば、鍵穴が存在する領域をズームする処理を実行できる。例えば、図30に示すように、領域R2が拡大されるように、カメラC1の焦点距離を調整し、図30の右図のズーム画像が取得されるようにする。図30の右図に示すズーム画像では、鍵穴のディテールが認識できるので、当該ズーム画像を用いてパターンマッチングをすることで、鍵穴の検出精度を向上させることができる。
ステップS46での検出精度が十分であると判定された場合、3D座標推定部38は、検出精度判定部35から出力されるデータDP5(パターンマッチングにより所定の精度を確保することができた鍵のパターンについての情報と、当該鍵の画像DP上の座標位置のデータとを含むデータ)と、データInfo_3D_extracted_img(抽出画像に対応する領域の3次元座標を特定するためのデータ)と、データInfo_3D(撮像した3次元空間を特定するためのデータ)と、撮影パラメータParam_camと、鍵パラメータのデータPrm_keyと、を取得する(ステップS47)。
上記実施形態および変形例を組み合わせて、学習用データ生成システム、学習用データ生成装置を構成するようにしてもよい。
1000、1000、3000 学習用データ生成システム
100、100A、100B 学習用データ生成装置
200 学習処理装置
300 推論処理装置
1、1A 背景画像データ取得部
2、2A、2B CG処理部
3、3A レンダリング処理部
4、4A、4B 学習用データ生成部
5 手動バウンディングボックス情報入力部
Claims (10)
- 所定の3次元空間を撮像して取得した背景画像を取得する背景画像取得ステップと、
物体の形状およびテクスチャーの少なくとも1つを含むコンピュータグラフィックス処理用のデータであるCG物体生成用データを取得し、取得した前記CG物体生成用データに基づいて生成されるCG物体を、前記背景画像の撮像対象とした前記3次元空間内の所定の座標位置に配置されるように前記背景画像に合成することで取得される画像であるレンダリング画像を学習用画像データとして取得する学習用画像データ取得ステップと、
前記学習用画像データから、前記レンダリング画像上において、前記CG物体を囲む画像領域を抽出することで取得した画像であるクロップ画像を姿勢検出用画像データとして取得する姿勢検出用画像データ取得ステップと、
前記姿勢検出用画像データに含まれる前記CG物体の姿勢に関する情報と前記姿勢検出用画像データとを対応付けたデータを姿勢検出用学習データとして取得する姿勢検出用学習データ取得ステップと、
を備える学習用データ生成方法。 - 前記学習用画像データから、前記レンダリング画像上において、前記CG物体を囲む領域である2次元バウンディング領域を設定し、前記2次元バウンディングの座標情報を学習用位置ラベルとして取得する学習用位置ラベル取得ステップをさらに備える、
請求項1に記載の学習用データ生成方法。 - 前記学習用画像データ取得ステップは、
前記背景画像に実物の処理対象物体が含まれている場合、当該処理対象物体を含む画像領域以外の画像領域に、前記CG物体が配置されるように前記レンダリング画像を生成する、
請求項1または2に記載の学習用データ生成方法。 - 前記背景画像は、第1物体を含む画像であり、
前記CG物体は、少なくとも一部が前記第1物体の表面上に配置されるように、前記背景画像に合成される、
請求項1に記載の学習用データ生成方法。 - 所定の3次元空間を撮像して取得した背景画像を取得する背景画像取得ステップと、
物体の形状およびテクスチャーの少なくとも1つを含むコンピュータグラフィックス処理用のデータであるCG物体生成用データを取得し、取得した前記CG物体生成用データに基づいて生成されるCG物体を、前記背景画像の撮像対象とした前記3次元空間内の所定の座標位置に配置されるように前記背景画像に合成することで取得される画像であるレンダリング画像を学習用画像データとして取得する学習用画像データ取得ステップと、
を備え、
前記背景画像取得ステップは、前記背景画像に、第1物体を含む画像を合成することで第1背景画像を取得し、
前記CG物体は、少なくとも一部が前記第1物体の表面上に配置されるように、前記第1背景画像に合成される、
学習用データ生成方法。 - 前記CG物体は、前記第1物体において鍵穴を形成する形状を有している、
請求項4または5に記載の学習用データ生成方法。 - 請求項1から6のいずれかに記載の学習用データ生成方法をコンピュータに実行させるためのプログラム。
- 所定の3次元空間を撮像して取得した背景画像を取得する背景画像データ取得部と、
物体の形状およびテクスチャーの少なくとも1つを含むコンピュータグラフィックス処理用のデータであるCG物体生成用データを取得し、取得した前記CG物体生成用データに基づいて生成されるCG物体を、前記背景画像の撮像対象とした前記3次元空間内の所定の座標位置に配置されるように前記背景画像に合成することで取得される画像であるレンダリング画像を学習用画像データとして取得する学習用画像データ取得部と、
前記学習用画像データから、前記レンダリング画像上において、前記CG物体を囲む画像領域を抽出することで取得した画像であるクロップ画像を姿勢検出用画像データとして取得する姿勢検出用画像データ取得部と、
前記姿勢検出用画像データに含まれる前記CG物体の姿勢に関する情報と前記姿勢検出用画像データとを対応付けたデータを姿勢検出用学習データとして取得する姿勢検出用学習データ取得部と、
を備える学習用データ生成装置。 - 請求項4から6のいずれかに記載の学習用データ生成方法により取得した学習用データを用いて、学習処理を実行することで、学習済みモデルを取得する学習済みモデル取得ステップと、
前記第1物体の表面上に配置されている所定の形状を含む画像を入力とし、前記学習済みモデルによる予測処理を実行することで、前記所定の形状の位置を特定するためのデータを出力する予測処理ステップと、
前記所定の形状の位置を特定するためのデータの検出精度を判定する検出精度判定ステップと、
前記第1物体の表面上に配置されている所定の形状を含む画像を撮像する撮像装置の撮影パラメータを調整する撮影パラメータ調整ステップと、
を備え、
前記所定の形状の位置を特定するためのデータの検出精度が所定の閾値よりも低い場合、
前記撮影パラメータ調整ステップが前記撮像装置の前記撮影パラメータを変更した後、前記予測処理ステップは、前記予測処理を実行する、
推論処理方法。 - 請求項9に記載の推論処理方法をコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019008307A JP6675691B1 (ja) | 2019-01-22 | 2019-01-22 | 学習用データ生成方法、プログラム、学習用データ生成装置、および、推論処理方法 |
PCT/JP2019/040667 WO2020152927A1 (ja) | 2019-01-22 | 2019-10-16 | 学習用データ生成方法、学習用データ生成装置、および、推論処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019008307A JP6675691B1 (ja) | 2019-01-22 | 2019-01-22 | 学習用データ生成方法、プログラム、学習用データ生成装置、および、推論処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6675691B1 true JP6675691B1 (ja) | 2020-04-01 |
JP2020119127A JP2020119127A (ja) | 2020-08-06 |
Family
ID=70001017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019008307A Active JP6675691B1 (ja) | 2019-01-22 | 2019-01-22 | 学習用データ生成方法、プログラム、学習用データ生成装置、および、推論処理方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6675691B1 (ja) |
WO (1) | WO2020152927A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102323413B1 (ko) * | 2020-05-12 | 2021-11-09 | 광주과학기술원 | 카메라 포즈 추정 방법 |
JP2021183773A (ja) * | 2020-05-21 | 2021-12-02 | 清水建設株式会社 | 切羽画像加工装置、切羽画像加工方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022157892A1 (ja) * | 2021-01-21 | 2022-07-28 | 日本電信電話株式会社 | 画像選出装置、画像選出方法、及び、画像選出プログラム |
CN116982076A (zh) * | 2021-03-25 | 2023-10-31 | 三菱电机株式会社 | 图像处理装置、程序及图像处理方法 |
KR102393801B1 (ko) * | 2021-12-27 | 2022-05-03 | 주식회사 딥노이드 | 배경 합성을 통한 학습 데이터를 생성하기 위한 장치 및 이를 위한 방법 |
JP2023183255A (ja) * | 2022-06-15 | 2023-12-27 | 株式会社日立製作所 | 学習用データ生成装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6275362B1 (ja) * | 2016-04-01 | 2018-02-07 | 株式会社wise | 3dグラフィック生成、人工知能の検証・学習システム、プログラム及び方法 |
JP2018169690A (ja) * | 2017-03-29 | 2018-11-01 | 日本電信電話株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
-
2019
- 2019-01-22 JP JP2019008307A patent/JP6675691B1/ja active Active
- 2019-10-16 WO PCT/JP2019/040667 patent/WO2020152927A1/ja active Application Filing
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102323413B1 (ko) * | 2020-05-12 | 2021-11-09 | 광주과학기술원 | 카메라 포즈 추정 방법 |
JP2021183773A (ja) * | 2020-05-21 | 2021-12-02 | 清水建設株式会社 | 切羽画像加工装置、切羽画像加工方法 |
JP7453848B2 (ja) | 2020-05-21 | 2024-03-21 | 清水建設株式会社 | 切羽画像加工装置、切羽画像加工方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2020119127A (ja) | 2020-08-06 |
WO2020152927A1 (ja) | 2020-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6675691B1 (ja) | 学習用データ生成方法、プログラム、学習用データ生成装置、および、推論処理方法 | |
JP4930854B2 (ja) | 関節物体位置姿勢推定装置及びその方法ならびにプログラム | |
JP5812599B2 (ja) | 情報処理方法及びその装置 | |
JP6560480B2 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
JP6011102B2 (ja) | 物体姿勢推定方法 | |
JP6685827B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP4284664B2 (ja) | 三次元形状推定システム及び画像生成システム | |
JP5631086B2 (ja) | 情報処理装置及びその制御方法、プログラム | |
JP2019057248A (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
KR20160115959A (ko) | 파라미터화된 변형가능 메시를 이용하여 개인화된 아바타들을 구성하기 위한 방법 및 시스템 | |
JP2020523703A (ja) | ダブル視野角画像較正および画像処理方法、装置、記憶媒体ならびに電子機器 | |
JP2009020761A (ja) | 画像処理装置及びその方法 | |
JP2022519194A (ja) | 奥行き推定 | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
JP7064257B2 (ja) | 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体 | |
CN113205560B (zh) | 多深度相机的标定方法、装置、设备及存储介质 | |
WO2018190805A1 (en) | Depth image pose search with a bootstrapped-created database | |
KR20190040626A (ko) | 초음파 영상을 실사 영상으로 변환하는 방법 및 그 장치 | |
JP5503510B2 (ja) | 姿勢推定装置および姿勢推定プログラム | |
WO2022201803A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2022018811A1 (ja) | 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
JP2008204318A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
US11941827B2 (en) | System and method of 3D point cloud registration with multiple 2D images | |
CN115471863A (zh) | 三维姿态的获取方法、模型训练方法和相关设备 | |
JP7452698B2 (ja) | 画像間の空間的関係をラベリングする強化学習モデル |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6675691 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |