JP2021039563A - 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 - Google Patents

教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 Download PDF

Info

Publication number
JP2021039563A
JP2021039563A JP2019160737A JP2019160737A JP2021039563A JP 2021039563 A JP2021039563 A JP 2021039563A JP 2019160737 A JP2019160737 A JP 2019160737A JP 2019160737 A JP2019160737 A JP 2019160737A JP 2021039563 A JP2021039563 A JP 2021039563A
Authority
JP
Japan
Prior art keywords
virtual
camera
depth
model
depth image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019160737A
Other languages
English (en)
Other versions
JP6719168B1 (ja
Inventor
裕樹 有光
Hiroki Arimitsu
裕樹 有光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2019160737A priority Critical patent/JP6719168B1/ja
Application granted granted Critical
Publication of JP6719168B1 publication Critical patent/JP6719168B1/ja
Publication of JP2021039563A publication Critical patent/JP2021039563A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】機械学習エンジンの教師データとなるデプス画像(depth)に対して、人手の作業を要することなく自動的にアノテーションを付与するプログラム等を提供する。【解決手段】デプス画像を教師データとした機械学習エンジンを構築するべく、当該デプス画像にラベルを付与するように、コンピュータに実行させるプログラムであって、3Dモデルに、ラベルが予め付与されており、3DCGソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、仮想カメラから、当該3Dモデルを撮影するレンダリング手段と、撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成するデプス画像作成手段と、作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段としてコンピュータを機能させる。【選択図】図2

Description

本発明は、機械学習エンジンの教師データに対するアノテーション(Annotation)の技術に関する。
アノテーションとは、テキストや音声、画像などのメディアデータに、ラベル(メタデータ)を付与する作業をいう。特に教師有りの機械学習エンジンは、メディアデータを説明変数とし、ラベルを目的変数とした教師データによって、学習モデルを構築する。そのため、大量のメディアデータに正確なラベルを付与するアノテーションの精度が、その機械学習エンジンの精度に直結することとなる。
画像は、テキストや音声と異なって、大量の画素の色情報に過ぎない。そのために、画像アノテーションの場合、画像や映像の内容自体を正確に理解するために、人手が必要となっている。現状、「AI向けの教師データ作成サービス(画像アノテーション)」が多く提供されている(例えば非特許文献1参照)。これらサービスによれば、人の視認の感覚を必要とするラベルを、実際に人手によって付与していく。
従来、CG(Computer Graphics)データを用いたアノテーションによって、学習データを構築する技術がある(例えば特許文献1参照)。この技術によれば、複数のモデルを含むCGデータのシーンデータを用いて、シーンデータ用画像を生成する。そして、シーンデータから特定物体モデル以外のモデルを削除し、特定物体モデルを特定色にして、シーンデータから学習データ生成用シーンデータを生成する。その学習データ生成用シーンデータを用いて生成した学習データ用画像について、特定物体モデルの領域を設定し、シーンデータ用画像と領域の情報とを対応付けて学習データとして格納する。
他の従来技術として、2.5次元画像を撮影可能なデプスカメラ(Depth Camera)が、一般的になってきている。デプスカメラとは、奥行き情報を取得する深度センサを内蔵したカメラをいう。デプスカメラは、通常のRGBカメラが取得する2次元の平面的な画像と異なって、奥行き距離(Depth)を取得し、3次元の立体的な情報を取得することができる。この情報は、画素毎の距離情報を伴う点群データであって、「ポイントクラウド」と称される(例えば8bit/pixelで、幅w×高さhによって表現)。また、1視点から見た3次元情報しか取得できないため、概念的に「2.5次元画像」とも称される。
特開2019−023858号公報
アノテック、「Deep Learningモデル構築を実現する学習データ作成用アノテーションサービス」、[online]、[令和1年8月5日検索]、インターネット<URL:https://annoteq.com/?gclid=Cj0KCQjwhJrqBRDZARIsALhp1WQqaaWrnZYhiusXa_jb1LFr1rVfCtTcRd1X0LTIvVtHWUl4LjfBfmIaAinZEALw_wcB>
前述したように、画像アノテーションは人手の作業となっており、人件費や管理費、教育費などのコストが高額となってしまう。そのために、一般的に、人件費が安い海外のオフショア拠点で作業されている。特に、画像に映り込む3Dモデルやその態様が、変容且つ複雑なものであるほど、人の認識力が必要となると考えられる。
これに対し、3Dモデルが非変容且つ定型寸法のものである場合、画像に映り込むその3Dモデルの態様の変化は、カメラの平行移動及び回転の関係に過ぎない。
ここで、本願の発明者は、3Dモデルが例えばCAD(Computer Aided Design)データ又はジオメトリ定義ファイルに基づくものである場合、RGB画像よりも、デプス(depth)画像の方が、機械学習エンジンの推定に適するのではないか、と考えた。即ち、デプス画像の方が、RGB画像よりも、3Dモデルの3次元形状をより正確に取得しているためである。一方で、RGBを持たないデプス画像は、深度をグレースケールで表示したとしても、人が視認するには非常に難しい。そのために、デプス画像に対する人手のアノテーション作業は、更に難しくなる。
そこで、本発明によれば、機械学習エンジンの教師データとしてのデプス画像に対して、人手の作業を要することなく自動的にアノテーションを付与するプログラム、装置及び方法を提供することを目的とする。
本発明によれば、デプス(depth)画像を教師データとした機械学習エンジンを構築するべく、当該デプス画像にラベルを付与する(Annotation)ように、コンピュータに実行させるプログラムであって、
3D(three-Dimensional)モデルに、ラベルが予め付与されており、
3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
仮想カメラから、当該3Dモデルを撮影するレンダリング手段と、
撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
してコンピュータを機能させることを特徴とする。
本発明のプログラムにおける他の実施形態によれば、
仮想配置手段が、仮想カメラにおけるカメラ外部パラメータ(平行移動及び回転)を所定範囲で変位させる毎に、レンダリング手段が、仮想カメラから当該3Dモデルを撮影する
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
仮想配置手段は、仮想カメラのカメラ外部パラメータにおける変位の所定範囲を、実用デプスカメラの平行移動及び回転に基づく変位の範囲に合わせる
ようにコンピュータに実行させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
実用デプスカメラの平行移動及び回転に基づく変位の範囲は、当該実用デプスカメラを人が特定態様で把持した場合に生じるであろう当該実用デプスカメラの平行移動及び回転に基づくものである
ようにコンピュータに実行させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
レンダリング手段は、運用時に使用される実用デプスカメラのカメラ内部パラメータを、仮想カメラのカメラ内部パラメータとして設定する
ようにコンピュータに実行させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
3Dモデルは、ポリゴン形式又はパラメトリック形式のジオメトリ定義ファイルに基づいてモデリングされたものであって、
仮想配置手段は、3Dモデルを、3次元空間上に同一寸法で再現する
ようにコンピュータに実行させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
実用デプスカメラが、不特定である場合、
レンダリング手段は、仮想カメラとして、Z深度に基づく1枚の仮想画像を撮影し、
デプス画像作成手段は、撮影された1枚の仮想画像をそのまま、デプス画像として出力する
ようにコンピュータに実行させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
実用デプスカメラが、正弦波の位相のずれを用いたTOF(Time Of Flight)型である場合、
レンダリング手段は、仮想カメラとして、1視点からの4枚以上の仮想画像を撮影し、
デプス画像作成手段は、撮影された4枚以上の仮想画像から、正弦波の位相のずれに基づいて仮想カメラからのデプスを算出する
ようにコンピュータに実行させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
実用デプスカメラが、視差による三角測量を用いたステレオ型である場合、
レンダリング手段は、仮想カメラとして、ステレオ型の2視点からの2枚の仮想画像を撮影し、
デプス画像作成手段は、撮影された2枚の仮想画像から、ステレオ視差原理に基づいて仮想カメラからのデプスを算出する
ようにコンピュータに実行させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
機械学習エンジンは、畳み込みニューラルネットワークに基づくものであり、
学習時に、機械学習エンジンは、デプス画像を説明変数とし、ラベルを目的変数として対応付けた教師データを入力して学習モデルを構築し、
運用時に、機械学習エンジンに、実用デプスカメラによって撮影されたデプス画像を説明変数として入力し、目的変数となるラベルを出力する
ようにコンピュータに実行させることも好ましい。
本発明によれば、デプス画像を教師データとした機械学習エンジンを構築するべく、当該デプス画像にラベルを付与する(Annotation)アノテーション装置であって、
3D(three-Dimensional)モデルに、ラベルが予め付与されており、
3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
仮想カメラから、当該3Dモデルを撮影するレンダリング手段と、
撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
を有することを特徴とする。
本発明によれば、デプス画像を教師データとした機械学習エンジンを構築するべく、当該デプス画像にラベルを付与する(Annotation)装置のアノテーション方法であって、
3D(three-Dimensional)モデルに、ラベルが予め付与されており、
装置は、
3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する第1のステップと、
仮想カメラから、当該3Dモデルを撮影する第2のステップと、
撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成する第3のステップと、
作成されたデプス画像に、当該3Dモデルのラベルを付与する第4のステップと
を実行することを特徴とする。
本発明のプログラム、装置及び方法によれば、機械学習エンジンの教師データとしてのデプス画像に対して、人手の作業を要することなく自動的にアノテーションを付与することができる。
機械学習エンジンを有する推定装置の機能構成図である。 本発明におけるアノテーション装置の機能構成図である。 本発明における仮想配置部の説明図である。 本発明におけるレンダリング部のカメラ内部パラメータの設定を表す説明図である。 仮想カメラの配置変更に応じたレンダリング部の撮影を表す説明図である。 3Dモデルを異なる視点から撮影した仮想画像を表す説明図である。 Z深度に基づく仮想カメラの撮影態様を表す説明図である。 TOFに基づく仮想カメラの撮影態様を表す説明図である。 TOFの仮想カメラに基づく撮影画像に対するデプス画像の作成を表すコードである。 ステレオに基づく仮想カメラの撮影態様を表す説明図である。 ステレオの仮想カメラに基づく撮影画像に対するデプス画像の作成を表すコードである。
以下では、本発明の実施の形態について、図面を用いて詳細に説明する。
図1は、機械学習エンジンを有する推定装置の機能構成図である。
図1によれば、推定装置は、教師有り学習の機械学習エンジンを有する。機械学習エンジンは、クラス分類に対応したものであってもよく、例えば畳み込みニューラルネットワークに基づくものであってもよい。また、k近傍法、決定木、ランダムフォレスト、サポートベクタマシン、ベイジアンネットワーク、隠れマルコフモデルなどのアルゴリズムに基づくものを用いることもできる。
機械学習エンジンは、学習時に、デプス画像を説明変数とし、ラベルを目的変数として対応付けた教師データを入力して、学習モデルを構築する。
<説明変数:デプス画像> <目的変数:ラベル>
また、機械学習エンジンは、運用時に、実用デプスカメラによって撮影されたデプス画像を説明変数として入力し、目的変数となるラベルを出力する。
図2は、本発明におけるアノテーション装置の機能構成図である。
図2によれば、アノテーション装置1は、デプス画像を教師データとした機械学習エンジンを構築するべく、当該デプス画像にラベルを付与する(Annotation)ものである。
アノテーション装置1は、3DCG(3D Computer Graphics)ソフトウェア10における仮想配置部101及びレンダリング部102と、デプス画像作成部11と、アノテーション部12とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現できる。また、これら機能構成部の処理の流れは、デプス画像に対するアノテーション方法としても理解できる。
[3DCGソフトウェア10]
3DCGソフトウェア10は、例えばMaya(登録商標)のような統合型の3次元のコンピュータグラフィックスを作成可能なソフトウェアを想定する。本発明によれば、3DCGソフトウェア10は、3次元空間上におけるレイアウトのための仮想配置部101と、画像化のためのレンダリング部102との機能を少なくとも有する。勿論、仮想配置部101と、レンダリング部102とは、別々の3DCGソフトウェアによって構成されるものであってもよい。
[仮想配置部101]
仮想配置部101は、3次元空間上に、「3Dモデル」と、当該3Dモデルを撮影する「仮想カメラ」とを配置する。
図3は、本発明における仮想配置部の説明図である。
3Dモデルは、3次元空間上に同一寸法で再現される。
3Dモデルは、ポリゴン形式又はパラメトリック形式のジオメトリ定義ファイルに基づいてモデリングされたものであって、非変容で且つ定型寸法である。ポリゴン形式としては、OBJファイルがあり、パラメトリック形式としては、NURBS(Non-Uniform Rational B-Spline)(非一様有理Bスプライン)やCAD(Computer-Aided Design)データがある。
ジオメトリとは、各頂点の位置、各テクスチャ座標の頂点のUV位置、頂点法線、頂点リストとして定義された各ポリゴンを形作る面、テクスチャ頂点を定義したものである。頂点は、標準で反時計回りに記録され、面法線の明示的宣言を不要としている。
ジオメトリ定義ファイルの3Dモデルは、3DCGソフトウェア10によって、3次元空間上にコンピュータグラフィックスによって配置される。
仮想カメラは、3Dモデルに対して、カメラ外部パラメータ(平行移動及び回転)を制御可能となる。仮想カメラは、撮影すべき仮想画像に、3Dモデルが映り込むように配置される。即ち、3Dモデルから、どのようなポジション及びアングルからも撮影することができる。
図3によれば、仮想配置部101は、3Dモデルを3次元空間上に配置するためのクラス"Transform"を定義している。
また、クラス"Transform"に対して、仮想カメラを3次元空間上に配置するために、カメラ外部パラメータを設定するクラス"CameraExtrinsic"も定義されている。
[レンダリング部102]
レンダリング部102は、仮想カメラのカメラ内部パラメータの設定と、3Dモデルの仮想画像の撮影との機能を有する。レンダリング部102としては、フォトリアルなレンダリングを可能とするものとして、例えば統合3DCGソフトウェアにプラグイン可能なV-ray(登録商標)がある。
図4は、本発明におけるレンダリング部のカメラ内部パラメータの設定を表す説明図である。
<仮想カメラのカメラ内部パラメータの設定>
レンダリング部102は、運用時に使用される実用デプスカメラのカメラ内部パラメータを、仮想カメラのカメラ内部パラメータとして設定する。ここでは、運用時に使用される実用デプスカメラのカメラ内部パラメータが、予め特定されており、キャリブレーションを必要としない。
図4によれば、レンダリング部102は、3DCGソフトウェア10における「カメラ属性エディタ」が表されている。例えば以下のようなカメラ内部パラメータを、実用デプスカメラに合わせて設定する。
画角、焦点距離、立体視、ステレオカメラの間隔、アパーチャ、・・・
カメラ属性エディタの設定は、プログラミングによって自動的な設定も可能となる。そのために、実用デプスカメラのカメラ内部パラメータ一式を、レンダリング部102に設定することもできる。
具体的には、実用デプスカメラとしてのRealSense(Intel製)によれば、以下のような仕様パラメータが設定されている。
焦点距離:1.93mm
画角 :水平91.2°、垂直65.5°、対角100.6°
ピクセルサイズ:3μm×3μm
また、図4によれば、仮想カメラのカメラ内部パラメータを設定するクラス"CameraIntrinsic"も定義されている。
Figure 2021039563
(fx,fy):カメラ内部パラメータの焦点距離
(cx,cy):カメラ内部パラメータの画像中心(主点)
(t1,t2,t3):カメラ外部パラメータの平行移動
(r11,r12,r13,r21,r22,r23,r31,r32,r33):カメラ外部パラメータの回転
(X,Y,Z):世界座標系の3次元座標
(u,v) :画像平面に投影された点座標
s:スケールの不定性を表す係数
3次元座標(X,Y,Z)から、画像平面上のピクセル座標(u,v)を算出する。
<仮想カメラの仕様>
仮想カメラの仕様は、実用デプスカメラに対応して、例えば以下のような3種類がある。
(1)実用デプスカメラが、不特定である場合
レンダリング部102は、仮想カメラとして、Z深度(Z-buffer)に基づく1枚の仮想画像を撮影する。この仮想画像は、画素毎に、撮影対象となる3Dモデルの表面までの深度(奥行き)に応じて、グレースケールで表現される。例えば仮想カメラから見て最も手前(距離が短い)を深度値=0と定めて「白」で表示し、距離が長くなるにつれて深度値が大きくなり黒く表示する。
(2)実用デプスカメラが、正弦波の位相のずれを用いたTOF(Time Of Flight)型である場合
実用デプスカメラとしては、例えばKinect2(Microsoft社製)がある。
レンダリング部102は、仮想カメラとして、Z深度に基づく4枚以上の仮想画像を撮影する。
(3)実用デプスカメラが、視差による三角測量を用いたステレオ型である場合
実用デプスカメラとしては、例えばKinect1(Microsoft社製)、Xtion(ASUS社製)RealSense(Intel社製)がある。
レンダリング部102は、仮想カメラとして、ステレオ型の2視点に基づく2枚の仮想画像を撮影する。
尚、仮想カメラの種別に応じた実施形態については、図6〜図8で後述する。
図5は、仮想カメラの配置変更に応じたレンダリング部の撮影を表す説明図である。
<3Dモデルの仮想画像の撮影>
レンダリング部102は、仮想カメラから、当該3Dモデルを撮影する。
仮想配置部101が、仮想カメラにおけるカメラ外部パラメータ(平行移動及び回転)を所定範囲で変位させる毎に、レンダリング部102が、仮想カメラから当該3Dモデルを撮影する。
仮想配置部101は、仮想カメラのカメラ外部パラメータにおける変位の所定範囲を、実用デプスカメラの平行移動及び回転に基づく変位の範囲に合わせる。
図4のように、例えば、CADデータの3Dモデルが「ネジ」である場合、実用デプスカメラによってその「ネジ」が360°全ての方向から撮影される場合、仮想カメラでも360°全ての方向から仮想画像を撮影する必要がある。また、実用デプスカメラによってその「ネジ」が所定方向から固定的に撮影される場合、仮想カメラでもその所定方向から所定範囲内(例えば10°)で複数の仮想画像を撮影する必要がある。
また、実用デプスカメラが人手によって撮影される場合もある。その場合、実用デプスカメラの平行移動及び回転に基づく変位の範囲は、当該実用デプスカメラを人が特定態様で把持した場合に生じるであろう当該実用デプスカメラの平行移動及び回転に基づくものとする。
例えば「手振れ」を考慮して、仮想カメラでもその所定方向から所定範囲内(例えば20°)で複数の仮想画像を撮影する必要がある。
図6は、3Dモデルを異なる視点から撮影した仮想画像を表す説明図である。
図6によれば、3Dモデルとしてトーラス及びコイルの例が表されている。仮想画像は、被写体となる3Dモデルと、仮想カメラとの配置によって、異なる仮想画像が撮影される。
レンダリング部102によって撮影された仮想画像は、デプス画像作成部11へ出力される。
[デプス画像作成部11]
デプス画像作成部11は、撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成する。
<仮想画像がZ深度に基づくものである場合>
デプス画像作成部11は、撮影された1枚の仮想画像をそのまま、デプス画像として出力する。
図7は、Z深度に基づく仮想カメラの撮影態様を表す説明図である。
<仮想画像がTOF型に基づくものである場合>
デプス画像作成部11は、撮影された4枚の仮想画像から、正弦波の位相のずれに基づくデプスを算出する。
図8は、TOFに基づく仮想カメラの撮影態様を表す説明図である。
図9は、TOFの仮想カメラに基づく撮影画像に対するデプス画像の作成を表すコードである。
<仮想画像がステレオ型に基づくものである場合>
デプス画像作成部11は、撮影された2枚の仮想画像から、ステレオ視差原理に基づいて仮想カメラからのデプスを算出する。
図10は、ステレオに基づく仮想カメラの撮影態様を表す説明図である。
図11は、ステレオの仮想カメラに基づく撮影画像に対するデプス画像の作成を表すコードである。
[アノテーション部12]
3D(three-Dimensional)モデルに、ラベルが予め付与されている。
アノテーション部12は、作成されたデプス画像に、当該3Dモデルのラベルを付与する。
以上、詳細に説明したように、本発明のプログラム、装置及び方法によれば、機械学習エンジンの教師データとしてデプス画像に対して、人手の作業を要することなく自動的にアノテーションを付与することができる。
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 アノテーション装置
10 3DCGソフトウェア
101 仮想配置部
102 レンダリング部
11 デプス画像作成部
12 アノテーション部
本発明によれば、正弦波の位相のずれを用いたTOF(Time Of Flight)型の実用デプスカメラによって撮影されたデプス(depth)画像にラベルを付与(Annotation)する機械学習エンジンにおける教師データを生成するようにコンピュータを機能させるプログラムであって、
3D(three-Dimensional)モデルに、ラベルが予め付与されており、
3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
1視点の仮想カメラから、当該3Dモデルを異なるタイミングで撮影した複数の仮想画像を生成するレンダリング手段と、
生成された複数の仮想画像から、正弦波の位相のずれに基づいて仮想カメラからのデプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
してコンピュータを機能させることを特徴とする。
本発明によれば、視差による三角測量を用いたステレオ型の実用デプスカメラによって撮影されたデプス画像にラベルを付与する機械学習エンジンにおける教師データを生成するようにコンピュータを機能させるプログラムであって、
3Dモデルに、ラベルが予め付与されており、
3DCGソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
2視点の仮想カメラそれぞれから、当該3Dモデルを撮影した複数の仮想画像を生成するレンダリング手段と、
生成された複数の仮想画像から、ステレオ視差原理に基づいて仮想カメラからデプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
してコンピュータを機能させることを特徴とする。
本発明のプログラムにおける他の実施形態によれば、
レンダリング手段は、運用時に使用される実用デプスカメラのカメラ内部パラメータを、仮想カメラのカメラ内部パラメータとして設定し、
仮想配置手段は、3Dモデルを、3次元空間上に同一寸法で再現する
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
仮想配置手段が、仮想カメラにおけるカメラ外部パラメータ(平行移動及び回転)を所定範囲で変位させる毎に、レンダリング手段が、仮想カメラから当該3Dモデルを撮影すると共に、
仮想配置手段は、仮想カメラのカメラ外部パラメータにおける変位の所定範囲を、当該実用デプスカメラを人が特定態様で把持した場合に生じるであろう当該実用デプスカメラの平行移動及び回転に基づく変位の範囲に合わせる
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
機械学習エンジンは、畳み込みニューラルネットワークに基づくものであり、
学習時に、機械学習エンジンは、デプス画像を説明変数とし、ラベルを目的変数として対応付けた教師データを入力して学習モデルを構築し、
運用時に、機械学習エンジンに、実用デプスカメラによって撮影されたデプス画像を説明変数として入力し、目的変数となるラベルを出力する
ようにコンピュータを機能させることも好ましい。
本発明によれば、正弦波の位相のずれを用いたTOF型の実用デプスカメラによって撮影されたデプス画像にラベルを付与する機械学習エンジンにおける教師データを生成するアノテーション装置であって、
3Dモデルに、ラベルが予め付与されており、
3DCGソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
1視点の仮想カメラから、当該3Dモデルを異なるタイミングで撮影した複数の仮想画像を生成するレンダリング手段と、
生成された複数の仮想画像から、正弦波の位相のずれに基づいて仮想カメラからデプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
を有することを特徴とする。
本発明によれば、視差による三角測量を用いたステレオ型の実用デプスカメラによって撮影されたデプス画像にラベルを付与する機械学習エンジンにおける教師データを生成するアノテーション装置であって、
3Dモデルに、ラベルが予め付与されており、
3DCGソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
2視点の仮想カメラそれぞれから、当該3Dモデルを撮影した複数の仮想画像を生成するレンダリング手段と、
生成された複数の仮想画像から、ステレオ視差原理に基づいて仮想カメラからデプス画像を作成するデプス画像作成手段と、
作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
を有することを特徴とする。
本発明によれば、正弦波の位相のずれを用いたTOF型の実用デプスカメラによって撮影されたデプス画像にラベルを付与する機械学習エンジンにおける教師データを生成する装置のアノテーション方法であって、
装置は、
3Dモデルに、ラベルを予め付与しており、
3DCGソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する第1のステップと、
1視点の仮想カメラから、当該3Dモデルを異なるタイミングで撮影した複数の仮想画像を生成する第2のステップと、
生成された複数の仮想画像から、正弦波の位相のずれに基づいて仮想カメラからデプス画像を作成する第3のステップと、
作成されたデプス画像に、当該3Dモデルのラベルを付与する第4のステップと
を実行することを特徴とする。
本発明によれば、視差による三角測量を用いたステレオ型の実用デプスカメラによって撮影されたデプス画像にラベルを付与する機械学習エンジンにおける教師データを生成する装置のアノテーション方法であって、
装置は、
3Dモデルに、ラベルを予め付与しており、
3DCGソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する第1のステップと、
2視点の仮想カメラそれぞれから、当該3Dモデルを撮影した複数の仮想画像を生成する第2のステップと、
生成された複数の仮想画像から、ステレオ視差原理に基づいて仮想カメラからデプス画像を作成する第3のステップと、
作成されたデプス画像に、当該3Dモデルのラベルを付与する第4のステップと
を実行することを特徴とする。

Claims (12)

  1. デプス(depth)画像を教師データとした機械学習エンジンを構築するべく、当該デプス画像にラベルを付与する(Annotation)ように、コンピュータに実行させるプログラムであって、
    3D(three-Dimensional)モデルに、ラベルが予め付与されており、
    3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
    仮想カメラから、当該3Dモデルを撮影するレンダリング手段と、
    撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成するデプス画像作成手段と、
    作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
    してコンピュータを機能させることを特徴とするプログラム。
  2. 仮想配置手段が、仮想カメラにおけるカメラ外部パラメータ(平行移動及び回転)を所定範囲で変位させる毎に、レンダリング手段が、仮想カメラから当該3Dモデルを撮影する
    ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。
  3. 仮想配置手段は、仮想カメラのカメラ外部パラメータにおける変位の所定範囲を、実用デプスカメラの平行移動及び回転に基づく変位の範囲に合わせる
    ようにコンピュータに実行させることを特徴とする請求項1又は2に記載のプログラム。
  4. 実用デプスカメラの平行移動及び回転に基づく変位の範囲は、当該実用デプスカメラを人が特定態様で把持した場合に生じるであろう当該実用デプスカメラの平行移動及び回転に基づくものである
    ようにコンピュータに実行させることを特徴とする請求項3に記載のプログラム。
  5. レンダリング手段は、運用時に使用される実用デプスカメラのカメラ内部パラメータを、仮想カメラのカメラ内部パラメータとして設定する
    ようにコンピュータに実行させることを特徴とする請求項1から4のいずれか1項に記載のプログラム。
  6. 3Dモデルは、ポリゴン形式又はパラメトリック形式のジオメトリ定義ファイルに基づいてモデリングされたものであって、
    仮想配置手段は、3Dモデルを、3次元空間上に同一寸法で再現する
    ようにコンピュータに実行させることを特徴とする請求項1から5のいずれか1項に記載のプログラム。
  7. 実用デプスカメラが、不特定である場合、
    レンダリング手段は、仮想カメラとして、Z深度に基づく1枚の仮想画像を撮影し、
    デプス画像作成手段は、撮影された1枚の仮想画像をそのまま、デプス画像として出力する
    ようにコンピュータに実行させることを特徴とする請求項1から6のいずれか1項に記載のプログラム。
  8. 実用デプスカメラが、正弦波の位相のずれを用いたTOF(Time Of Flight)型である場合、
    レンダリング手段は、仮想カメラとして、1視点からの4枚以上の仮想画像を撮影し、
    デプス画像作成手段は、撮影された4枚以上の仮想画像から、正弦波の位相のずれに基づいて仮想カメラからのデプスを算出する
    ようにコンピュータに実行させることを特徴とする請求項1から6のいずれか1項に記載のプログラム。
  9. 実用デプスカメラが、視差による三角測量を用いたステレオ型である場合、
    レンダリング手段は、仮想カメラとして、ステレオ型の2視点からの2枚の仮想画像を撮影し、
    デプス画像作成手段は、撮影された2枚の仮想画像から、ステレオ視差原理に基づいて仮想カメラからのデプスを算出する
    ようにコンピュータに実行させることを特徴とする請求項1から6のいずれか1項に記載のプログラム。
  10. 機械学習エンジンは、畳み込みニューラルネットワークに基づくものであり、
    学習時に、機械学習エンジンは、デプス画像を説明変数とし、ラベルを目的変数として対応付けた教師データを入力して学習モデルを構築し、
    運用時に、機械学習エンジンに、実用デプスカメラによって撮影されたデプス画像を説明変数として入力し、目的変数となるラベルを出力する
    ようにコンピュータに実行させることを特徴とする請求項1から9のいずれか1項に記載のプログラム。
  11. デプス画像を教師データとした機械学習エンジンを構築するべく、当該デプス画像にラベルを付与する(Annotation)アノテーション装置であって、
    3D(three-Dimensional)モデルに、ラベルが予め付与されており、
    3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する仮想配置手段と、
    仮想カメラから、当該3Dモデルを撮影するレンダリング手段と、
    撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成するデプス画像作成手段と、
    作成されたデプス画像に、当該3Dモデルのラベルを付与するアノテーション手段と
    を有することを特徴とするアノテーション装置。
  12. デプス画像を教師データとした機械学習エンジンを構築するべく、当該デプス画像にラベルを付与する(Annotation)装置のアノテーション方法であって、
    3D(three-Dimensional)モデルに、ラベルが予め付与されており、
    装置は、
    3DCG(3D Computer Graphics)ソフトウェアを用いて、3次元空間上に、3Dモデルと、当該3Dモデルを撮影する仮想カメラとを配置する第1のステップと、
    仮想カメラから、当該3Dモデルを撮影する第2のステップと、
    撮影された仮想画像について、画素毎に、仮想カメラからのデプス(距離)を算出し、デプス画像を作成する第3のステップと、
    作成されたデプス画像に、当該3Dモデルのラベルを付与する第4のステップと
    を実行することを特徴とするアノテーション方法。
JP2019160737A 2019-09-03 2019-09-03 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 Active JP6719168B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019160737A JP6719168B1 (ja) 2019-09-03 2019-09-03 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019160737A JP6719168B1 (ja) 2019-09-03 2019-09-03 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法

Publications (2)

Publication Number Publication Date
JP6719168B1 JP6719168B1 (ja) 2020-07-08
JP2021039563A true JP2021039563A (ja) 2021-03-11

Family

ID=71402372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019160737A Active JP6719168B1 (ja) 2019-09-03 2019-09-03 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法

Country Status (1)

Country Link
JP (1) JP6719168B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022045297A1 (ja) * 2020-08-28 2022-03-03

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019021456A1 (ja) * 2017-07-28 2019-01-31 株式会社ソニー・インタラクティブエンタテインメント 学習装置、認識装置、学習方法、認識方法及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019021456A1 (ja) * 2017-07-28 2019-01-31 株式会社ソニー・インタラクティブエンタテインメント 学習装置、認識装置、学習方法、認識方法及びプログラム

Also Published As

Publication number Publication date
JP6719168B1 (ja) 2020-07-08

Similar Documents

Publication Publication Date Title
JP7403528B2 (ja) シーンの色及び深度の情報を再構成するための方法及びシステム
US11222471B2 (en) Implementing three-dimensional augmented reality in smart glasses based on two-dimensional data
US8933928B2 (en) Multiview face content creation
EP2852935B1 (en) Systems and methods for generating a 3-d model of a user for a virtual try-on product
US9332243B2 (en) Handheld portable optical scanner and method of using
KR101560508B1 (ko) 3차원 이미지 모델 조정을 위한 방법 및 장치
JP2020535509A (ja) イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム
US10223839B2 (en) Virtual changes to a real object
KR101556992B1 (ko) 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템
JP5206366B2 (ja) 3次元データ作成装置
US11436755B2 (en) Real-time pose estimation for unseen objects
US11315313B2 (en) Methods, devices and computer program products for generating 3D models
JP2014110043A (ja) 複数の3次元モデルをつなぎ合わせる装置、方法及びプログラム
JP7064257B2 (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
JP6902881B2 (ja) 情報処理装置及び三次元モデルの生成方法
KR20200056764A (ko) 3d얼굴 모델의 얼굴 애니메이션을 생성하기 위한 조인트 자동 셋업 방법과 컴퓨터 프로그램
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
JP2019091436A (ja) 3d配置のタイプに応じた2d画像の分類
JP6719168B1 (ja) 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法
JP2008204318A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US11636578B1 (en) Partial image completion
JP7298687B2 (ja) 物体認識装置及び物体認識方法
EP3980975B1 (en) Method of inferring microdetail on skin animation
EP3779878A1 (en) Method and device for combining a texture with an artificial object
US20230079478A1 (en) Face mesh deformation with detailed wrinkles

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190903

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200527

R150 Certificate of patent or registration of utility model

Ref document number: 6719168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250