JP2021039563A - 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 - Google Patents
教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 Download PDFInfo
- Publication number
- JP2021039563A JP2021039563A JP2019160737A JP2019160737A JP2021039563A JP 2021039563 A JP2021039563 A JP 2021039563A JP 2019160737 A JP2019160737 A JP 2019160737A JP 2019160737 A JP2019160737 A JP 2019160737A JP 2021039563 A JP2021039563 A JP 2021039563A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- camera
- depth
- model
- depth image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
ここで、本願の発明者は、3Dモデルが例えばCAD(Computer Aided Design)データ又はジオメトリ定義ファイルに基づくものである場合、RGB画像よりも、デプス(depth)画像の方が、機械学習エンジンの推定に適するのではないか、と考えた。即ち、デプス画像の方が、RGB画像よりも、3Dモデルの3次元形状をより正確に取得しているためである。一方で、RGBを持たないデプス画像は、深度をグレースケールで表示したとしても、人が視認するには非常に難しい。そのために、デプス画像に対する人手のアノテーション作業は、更に難しくなる。
3D(three-Dimensional)モデルに、ラベルが予め付与されており、
3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
仮想カメラから、当該3Dモデルを撮影するレンダリング手段と、
撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
してコンピュータを機能させることを特徴とする。
仮想配置手段が、仮想カメラにおけるカメラ外部パラメータ(平行移動及び回転)を所定範囲で変位させる毎に、レンダリング手段が、仮想カメラから当該3Dモデルを撮影する
ようにコンピュータを機能させることも好ましい。
仮想配置手段は、仮想カメラのカメラ外部パラメータにおける変位の所定範囲を、実用デプスカメラの平行移動及び回転に基づく変位の範囲に合わせる
ようにコンピュータに実行させることも好ましい。
実用デプスカメラの平行移動及び回転に基づく変位の範囲は、当該実用デプスカメラを人が特定態様で把持した場合に生じるであろう当該実用デプスカメラの平行移動及び回転に基づくものである
ようにコンピュータに実行させることも好ましい。
レンダリング手段は、運用時に使用される実用デプスカメラのカメラ内部パラメータを、仮想カメラのカメラ内部パラメータとして設定する
ようにコンピュータに実行させることも好ましい。
3Dモデルは、ポリゴン形式又はパラメトリック形式のジオメトリ定義ファイルに基づいてモデリングされたものであって、
仮想配置手段は、3Dモデルを、3次元空間上に同一寸法で再現する
ようにコンピュータに実行させることも好ましい。
実用デプスカメラが、不特定である場合、
レンダリング手段は、仮想カメラとして、Z深度に基づく1枚の仮想画像を撮影し、
デプス画像作成手段は、撮影された1枚の仮想画像をそのまま、デプス画像として出力する
ようにコンピュータに実行させることも好ましい。
実用デプスカメラが、正弦波の位相のずれを用いたTOF(Time Of Flight)型である場合、
レンダリング手段は、仮想カメラとして、1視点からの4枚以上の仮想画像を撮影し、
デプス画像作成手段は、撮影された4枚以上の仮想画像から、正弦波の位相のずれに基づいて仮想カメラからのデプスを算出する
ようにコンピュータに実行させることも好ましい。
実用デプスカメラが、視差による三角測量を用いたステレオ型である場合、
レンダリング手段は、仮想カメラとして、ステレオ型の2視点からの2枚の仮想画像を撮影し、
デプス画像作成手段は、撮影された2枚の仮想画像から、ステレオ視差原理に基づいて仮想カメラからのデプスを算出する
ようにコンピュータに実行させることも好ましい。
機械学習エンジンは、畳み込みニューラルネットワークに基づくものであり、
学習時に、機械学習エンジンは、デプス画像を説明変数とし、ラベルを目的変数として対応付けた教師データを入力して学習モデルを構築し、
運用時に、機械学習エンジンに、実用デプスカメラによって撮影されたデプス画像を説明変数として入力し、目的変数となるラベルを出力する
ようにコンピュータに実行させることも好ましい。
3D(three-Dimensional)モデルに、ラベルが予め付与されており、
3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
仮想カメラから、当該3Dモデルを撮影するレンダリング手段と、
撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
を有することを特徴とする。
3D(three-Dimensional)モデルに、ラベルが予め付与されており、
装置は、
3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する第1のステップと、
仮想カメラから、当該3Dモデルを撮影する第2のステップと、
撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成する第3のステップと、
作成されたデプス画像に、当該3Dモデルのラベルを付与する第4のステップと
を実行することを特徴とする。
<説明変数:デプス画像> <目的変数:ラベル>
また、機械学習エンジンは、運用時に、実用デプスカメラによって撮影されたデプス画像を説明変数として入力し、目的変数となるラベルを出力する。
アノテーション装置1は、3DCG(3D Computer Graphics)ソフトウェア10における仮想配置部101及びレンダリング部102と、デプス画像作成部11と、アノテーション部12とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現できる。また、これら機能構成部の処理の流れは、デプス画像に対するアノテーション方法としても理解できる。
3DCGソフトウェア10は、例えばMaya(登録商標)のような統合型の3次元のコンピュータグラフィックスを作成可能なソフトウェアを想定する。本発明によれば、3DCGソフトウェア10は、3次元空間上におけるレイアウトのための仮想配置部101と、画像化のためのレンダリング部102との機能を少なくとも有する。勿論、仮想配置部101と、レンダリング部102とは、別々の3DCGソフトウェアによって構成されるものであってもよい。
仮想配置部101は、3次元空間上に、「3Dモデル」と、当該3Dモデルを撮影する「仮想カメラ」とを配置する。
3Dモデルは、ポリゴン形式又はパラメトリック形式のジオメトリ定義ファイルに基づいてモデリングされたものであって、非変容で且つ定型寸法である。ポリゴン形式としては、OBJファイルがあり、パラメトリック形式としては、NURBS(Non-Uniform Rational B-Spline)(非一様有理Bスプライン)やCAD(Computer-Aided Design)データがある。
ジオメトリとは、各頂点の位置、各テクスチャ座標の頂点のUV位置、頂点法線、頂点リストとして定義された各ポリゴンを形作る面、テクスチャ頂点を定義したものである。頂点は、標準で反時計回りに記録され、面法線の明示的宣言を不要としている。
ジオメトリ定義ファイルの3Dモデルは、3DCGソフトウェア10によって、3次元空間上にコンピュータグラフィックスによって配置される。
また、クラス"Transform"に対して、仮想カメラを3次元空間上に配置するために、カメラ外部パラメータを設定するクラス"CameraExtrinsic"も定義されている。
レンダリング部102は、仮想カメラのカメラ内部パラメータの設定と、3Dモデルの仮想画像の撮影との機能を有する。レンダリング部102としては、フォトリアルなレンダリングを可能とするものとして、例えば統合3DCGソフトウェアにプラグイン可能なV-ray(登録商標)がある。
レンダリング部102は、運用時に使用される実用デプスカメラのカメラ内部パラメータを、仮想カメラのカメラ内部パラメータとして設定する。ここでは、運用時に使用される実用デプスカメラのカメラ内部パラメータが、予め特定されており、キャリブレーションを必要としない。
画角、焦点距離、立体視、ステレオカメラの間隔、アパーチャ、・・・
カメラ属性エディタの設定は、プログラミングによって自動的な設定も可能となる。そのために、実用デプスカメラのカメラ内部パラメータ一式を、レンダリング部102に設定することもできる。
焦点距離:1.93mm
画角 :水平91.2°、垂直65.5°、対角100.6°
ピクセルサイズ:3μm×3μm
(cx,cy):カメラ内部パラメータの画像中心(主点)
(t1,t2,t3):カメラ外部パラメータの平行移動
(r11,r12,r13,r21,r22,r23,r31,r32,r33):カメラ外部パラメータの回転
(X,Y,Z):世界座標系の3次元座標
(u,v) :画像平面に投影された点座標
s:スケールの不定性を表す係数
3次元座標(X,Y,Z)から、画像平面上のピクセル座標(u,v)を算出する。
仮想カメラの仕様は、実用デプスカメラに対応して、例えば以下のような3種類がある。
(1)実用デプスカメラが、不特定である場合
レンダリング部102は、仮想カメラとして、Z深度(Z-buffer)に基づく1枚の仮想画像を撮影する。この仮想画像は、画素毎に、撮影対象となる3Dモデルの表面までの深度(奥行き)に応じて、グレースケールで表現される。例えば仮想カメラから見て最も手前(距離が短い)を深度値=0と定めて「白」で表示し、距離が長くなるにつれて深度値が大きくなり黒く表示する。
実用デプスカメラとしては、例えばKinect2(Microsoft社製)がある。
レンダリング部102は、仮想カメラとして、Z深度に基づく4枚以上の仮想画像を撮影する。
実用デプスカメラとしては、例えばKinect1(Microsoft社製)、Xtion(ASUS社製)RealSense(Intel社製)がある。
レンダリング部102は、仮想カメラとして、ステレオ型の2視点に基づく2枚の仮想画像を撮影する。
レンダリング部102は、仮想カメラから、当該3Dモデルを撮影する。
仮想配置部101が、仮想カメラにおけるカメラ外部パラメータ(平行移動及び回転)を所定範囲で変位させる毎に、レンダリング部102が、仮想カメラから当該3Dモデルを撮影する。
図4のように、例えば、CADデータの3Dモデルが「ネジ」である場合、実用デプスカメラによってその「ネジ」が360°全ての方向から撮影される場合、仮想カメラでも360°全ての方向から仮想画像を撮影する必要がある。また、実用デプスカメラによってその「ネジ」が所定方向から固定的に撮影される場合、仮想カメラでもその所定方向から所定範囲内(例えば10°)で複数の仮想画像を撮影する必要がある。
例えば「手振れ」を考慮して、仮想カメラでもその所定方向から所定範囲内(例えば20°)で複数の仮想画像を撮影する必要がある。
図6によれば、3Dモデルとしてトーラス及びコイルの例が表されている。仮想画像は、被写体となる3Dモデルと、仮想カメラとの配置によって、異なる仮想画像が撮影される。
デプス画像作成部11は、撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成する。
デプス画像作成部11は、撮影された1枚の仮想画像をそのまま、デプス画像として出力する。
図7は、Z深度に基づく仮想カメラの撮影態様を表す説明図である。
デプス画像作成部11は、撮影された4枚の仮想画像から、正弦波の位相のずれに基づくデプスを算出する。
図8は、TOFに基づく仮想カメラの撮影態様を表す説明図である。
図9は、TOFの仮想カメラに基づく撮影画像に対するデプス画像の作成を表すコードである。
デプス画像作成部11は、撮影された2枚の仮想画像から、ステレオ視差原理に基づいて仮想カメラからのデプスを算出する。
図10は、ステレオに基づく仮想カメラの撮影態様を表す説明図である。
図11は、ステレオの仮想カメラに基づく撮影画像に対するデプス画像の作成を表すコードである。
3D(three-Dimensional)モデルに、ラベルが予め付与されている。
アノテーション部12は、作成されたデプス画像に、当該3Dモデルのラベルを付与する。
10 3DCGソフトウェア
101 仮想配置部
102 レンダリング部
11 デプス画像作成部
12 アノテーション部
3D(three-Dimensional)モデルに、ラベルが予め付与されており、
3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
1視点の仮想カメラから、当該3Dモデルを異なるタイミングで撮影した複数の仮想画像を生成するレンダリング手段と、
生成された複数の仮想画像から、正弦波の位相のずれに基づいて仮想カメラからのデプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
してコンピュータを機能させることを特徴とする。
3Dモデルに、ラベルが予め付与されており、
3DCGソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
2視点の仮想カメラそれぞれから、当該3Dモデルを撮影した複数の仮想画像を生成するレンダリング手段と、
生成された複数の仮想画像から、ステレオ視差原理に基づいて仮想カメラからデプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
してコンピュータを機能させることを特徴とする。
レンダリング手段は、運用時に使用される実用デプスカメラのカメラ内部パラメータを、仮想カメラのカメラ内部パラメータとして設定し、
仮想配置手段は、3Dモデルを、3次元空間上に同一寸法で再現する
ようにコンピュータを機能させることも好ましい。
仮想配置手段が、仮想カメラにおけるカメラ外部パラメータ(平行移動及び回転)を所定範囲で変位させる毎に、レンダリング手段が、仮想カメラから当該3Dモデルを撮影すると共に、
仮想配置手段は、仮想カメラのカメラ外部パラメータにおける変位の所定範囲を、当該実用デプスカメラを人が特定態様で把持した場合に生じるであろう当該実用デプスカメラの平行移動及び回転に基づく変位の範囲に合わせる
ようにコンピュータを機能させることも好ましい。
機械学習エンジンは、畳み込みニューラルネットワークに基づくものであり、
学習時に、機械学習エンジンは、デプス画像を説明変数とし、ラベルを目的変数として対応付けた教師データを入力して学習モデルを構築し、
運用時に、機械学習エンジンに、実用デプスカメラによって撮影されたデプス画像を説明変数として入力し、目的変数となるラベルを出力する
ようにコンピュータを機能させることも好ましい。
3Dモデルに、ラベルが予め付与されており、
3DCGソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
1視点の仮想カメラから、当該3Dモデルを異なるタイミングで撮影した複数の仮想画像を生成するレンダリング手段と、
生成された複数の仮想画像から、正弦波の位相のずれに基づいて仮想カメラからデプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
を有することを特徴とする。
3Dモデルに、ラベルが予め付与されており、
3DCGソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
2視点の仮想カメラそれぞれから、当該3Dモデルを撮影した複数の仮想画像を生成するレンダリング手段と、
生成された複数の仮想画像から、ステレオ視差原理に基づいて仮想カメラからデプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
を有することを特徴とする。
装置は、
3Dモデルに、ラベルを予め付与しており、
3DCGソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する第1のステップと、
1視点の仮想カメラから、当該3Dモデルを異なるタイミングで撮影した複数の仮想画像を生成する第2のステップと、
生成された複数の仮想画像から、正弦波の位相のずれに基づいて仮想カメラからデプス画像を作成する第3のステップと、
作成されたデプス画像に、当該3Dモデルのラベルを付与する第4のステップと
を実行することを特徴とする。
装置は、
3Dモデルに、ラベルを予め付与しており、
3DCGソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する第1のステップと、
2視点の仮想カメラそれぞれから、当該3Dモデルを撮影した複数の仮想画像を生成する第2のステップと、
生成された複数の仮想画像から、ステレオ視差原理に基づいて仮想カメラからデプス画像を作成する第3のステップと、
作成されたデプス画像に、当該3Dモデルのラベルを付与する第4のステップと
を実行することを特徴とする。
Claims (12)
- デプス(depth)画像を教師データとした機械学習エンジンを構築するべく、当該デプス画像にラベルを付与する(Annotation)ように、コンピュータに実行させるプログラムであって、
3D(three-Dimensional)モデルに、ラベルが予め付与されており、
3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
仮想カメラから、当該3Dモデルを撮影するレンダリング手段と、
撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
してコンピュータを機能させることを特徴とするプログラム。 - 仮想配置手段が、仮想カメラにおけるカメラ外部パラメータ(平行移動及び回転)を所定範囲で変位させる毎に、レンダリング手段が、仮想カメラから当該3Dモデルを撮影する
ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。 - 仮想配置手段は、仮想カメラのカメラ外部パラメータにおける変位の所定範囲を、実用デプスカメラの平行移動及び回転に基づく変位の範囲に合わせる
ようにコンピュータに実行させることを特徴とする請求項1又は2に記載のプログラム。 - 実用デプスカメラの平行移動及び回転に基づく変位の範囲は、当該実用デプスカメラを人が特定態様で把持した場合に生じるであろう当該実用デプスカメラの平行移動及び回転に基づくものである
ようにコンピュータに実行させることを特徴とする請求項3に記載のプログラム。 - レンダリング手段は、運用時に使用される実用デプスカメラのカメラ内部パラメータを、仮想カメラのカメラ内部パラメータとして設定する
ようにコンピュータに実行させることを特徴とする請求項1から4のいずれか1項に記載のプログラム。 - 3Dモデルは、ポリゴン形式又はパラメトリック形式のジオメトリ定義ファイルに基づいてモデリングされたものであって、
仮想配置手段は、3Dモデルを、3次元空間上に同一寸法で再現する
ようにコンピュータに実行させることを特徴とする請求項1から5のいずれか1項に記載のプログラム。 - 実用デプスカメラが、不特定である場合、
レンダリング手段は、仮想カメラとして、Z深度に基づく1枚の仮想画像を撮影し、
デプス画像作成手段は、撮影された1枚の仮想画像をそのまま、デプス画像として出力する
ようにコンピュータに実行させることを特徴とする請求項1から6のいずれか1項に記載のプログラム。 - 実用デプスカメラが、正弦波の位相のずれを用いたTOF(Time Of Flight)型である場合、
レンダリング手段は、仮想カメラとして、1視点からの4枚以上の仮想画像を撮影し、
デプス画像作成手段は、撮影された4枚以上の仮想画像から、正弦波の位相のずれに基づいて仮想カメラからのデプスを算出する
ようにコンピュータに実行させることを特徴とする請求項1から6のいずれか1項に記載のプログラム。 - 実用デプスカメラが、視差による三角測量を用いたステレオ型である場合、
レンダリング手段は、仮想カメラとして、ステレオ型の2視点からの2枚の仮想画像を撮影し、
デプス画像作成手段は、撮影された2枚の仮想画像から、ステレオ視差原理に基づいて仮想カメラからのデプスを算出する
ようにコンピュータに実行させることを特徴とする請求項1から6のいずれか1項に記載のプログラム。 - 機械学習エンジンは、畳み込みニューラルネットワークに基づくものであり、
学習時に、機械学習エンジンは、デプス画像を説明変数とし、ラベルを目的変数として対応付けた教師データを入力して学習モデルを構築し、
運用時に、機械学習エンジンに、実用デプスカメラによって撮影されたデプス画像を説明変数として入力し、目的変数となるラベルを出力する
ようにコンピュータに実行させることを特徴とする請求項1から9のいずれか1項に記載のプログラム。 - デプス画像を教師データとした機械学習エンジンを構築するべく、当該デプス画像にラベルを付与する(Annotation)アノテーション装置であって、
3D(three-Dimensional)モデルに、ラベルが予め付与されており、
3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
仮想カメラから、当該3Dモデルを撮影するレンダリング手段と、
撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
を有することを特徴とするアノテーション装置。 - デプス画像を教師データとした機械学習エンジンを構築するべく、当該デプス画像にラベルを付与する(Annotation)装置のアノテーション方法であって、
3D(three-Dimensional)モデルに、ラベルが予め付与されており、
装置は、
3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する第1のステップと、
仮想カメラから、当該3Dモデルを撮影する第2のステップと、
撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成する第3のステップと、
作成されたデプス画像に、当該3Dモデルのラベルを付与する第4のステップと
を実行することを特徴とするアノテーション方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019160737A JP6719168B1 (ja) | 2019-09-03 | 2019-09-03 | 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019160737A JP6719168B1 (ja) | 2019-09-03 | 2019-09-03 | 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6719168B1 JP6719168B1 (ja) | 2020-07-08 |
JP2021039563A true JP2021039563A (ja) | 2021-03-11 |
Family
ID=71402372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019160737A Active JP6719168B1 (ja) | 2019-09-03 | 2019-09-03 | 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6719168B1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022045297A1 (ja) * | 2020-08-28 | 2022-03-03 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019021456A1 (ja) * | 2017-07-28 | 2019-01-31 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、認識装置、学習方法、認識方法及びプログラム |
-
2019
- 2019-09-03 JP JP2019160737A patent/JP6719168B1/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019021456A1 (ja) * | 2017-07-28 | 2019-01-31 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、認識装置、学習方法、認識方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6719168B1 (ja) | 2020-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7403528B2 (ja) | シーンの色及び深度の情報を再構成するための方法及びシステム | |
US11222471B2 (en) | Implementing three-dimensional augmented reality in smart glasses based on two-dimensional data | |
US8933928B2 (en) | Multiview face content creation | |
EP2852935B1 (en) | Systems and methods for generating a 3-d model of a user for a virtual try-on product | |
US9332243B2 (en) | Handheld portable optical scanner and method of using | |
KR101560508B1 (ko) | 3차원 이미지 모델 조정을 위한 방법 및 장치 | |
JP2020535509A (ja) | イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム | |
US10223839B2 (en) | Virtual changes to a real object | |
KR101556992B1 (ko) | 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템 | |
JP5206366B2 (ja) | 3次元データ作成装置 | |
US11436755B2 (en) | Real-time pose estimation for unseen objects | |
US11315313B2 (en) | Methods, devices and computer program products for generating 3D models | |
JP2014110043A (ja) | 複数の3次元モデルをつなぎ合わせる装置、方法及びプログラム | |
JP7064257B2 (ja) | 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体 | |
JP6902881B2 (ja) | 情報処理装置及び三次元モデルの生成方法 | |
KR20200056764A (ko) | 3d얼굴 모델의 얼굴 애니메이션을 생성하기 위한 조인트 자동 셋업 방법과 컴퓨터 프로그램 | |
JP6541920B1 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
JP2019091436A (ja) | 3d配置のタイプに応じた2d画像の分類 | |
JP6719168B1 (ja) | 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 | |
JP2008204318A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
US11636578B1 (en) | Partial image completion | |
JP7298687B2 (ja) | 物体認識装置及び物体認識方法 | |
EP3980975B1 (en) | Method of inferring microdetail on skin animation | |
EP3779878A1 (en) | Method and device for combining a texture with an artificial object | |
US20230079478A1 (en) | Face mesh deformation with detailed wrinkles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190903 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200320 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200527 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200527 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6719168 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |