JP2017157208A - Three-dimensional model generation method, three-dimensional model generation device, three-dimensional model generation system, and program for generating three-dimensional model - Google Patents

Three-dimensional model generation method, three-dimensional model generation device, three-dimensional model generation system, and program for generating three-dimensional model Download PDF

Info

Publication number
JP2017157208A
JP2017157208A JP2017028809A JP2017028809A JP2017157208A JP 2017157208 A JP2017157208 A JP 2017157208A JP 2017028809 A JP2017028809 A JP 2017028809A JP 2017028809 A JP2017028809 A JP 2017028809A JP 2017157208 A JP2017157208 A JP 2017157208A
Authority
JP
Japan
Prior art keywords
polygon
dimensional
model
data
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017028809A
Other languages
Japanese (ja)
Other versions
JP6348623B2 (en
Inventor
達也 横田
Tatsuya Yokota
達也 横田
ハリー 北島
Harry Kitajima
ハリー 北島
芳明 澤邊
Yoshiaki Sawabe
芳明 澤邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
1-10imagine Inc
Original Assignee
1-10imagine Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 1-10imagine Inc filed Critical 1-10imagine Inc
Publication of JP2017157208A publication Critical patent/JP2017157208A/en
Application granted granted Critical
Publication of JP6348623B2 publication Critical patent/JP6348623B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology capable of easily generating a three-dimensional model of a subject which can be viewed from an arbitrary direction.SOLUTION: A generation method of a three-dimensional model includes the steps for: generating a spatial coordinate of a plurality of points from depth data and imaging data of a subject obtained by four or more distance image sensors 11-14 (S3); generating a partial three-dimensional polygon model comprising a combination of a plurality of polygons generated by connecting a specified number of points positioned on the same plane among the plurality of points (S4); generating an entire three-dimensional polygon model in which a plurality of partial three-dimensional polygon models are integrated to be a single model by converting a spatial coordinate of the plurality of points constituting each partial three-dimensional polygon model into a spatial coordinate corresponding to a single common spacial coordinate system by coordinate-conversion (S8), and deleting a polygon assembly constituted with a series of polygons of a specified number or less in the entire three-dimensional polygon model (S9).SELECTED DRAWING: Figure 2

Description

本発明は、コンピュータを用いて人間の全身を表現する三次元ポリゴンモデルを作成する技術、及び、該三次元ポリゴンモデルに骨格データ及び動作データを重畳して所望の動きを付与することができる三次元モデルを作成する技術に関する。   The present invention relates to a technique for creating a three-dimensional polygon model that represents a whole human body using a computer, and a tertiary that can superimpose skeleton data and motion data on the three-dimensional polygon model to give a desired motion. The present invention relates to a technique for creating an original model.

近年、ゲームや広告において、ディスプレイ上にコンピュータを用いて作成された三次元ポリゴンモデルで表現された人物を表示したり、該三次元ポリゴンモデルに動きを付与した動画を表示したりする技術が広く用いられている(例えば特許文献1)。   In recent years, in games and advertisements, a technique for displaying a person represented by a three-dimensional polygon model created using a computer on a display or displaying a moving image with a motion added to the three-dimensional polygon model has been widely used. It is used (for example, patent document 1).

三次元ポリゴンモデルは次のような手順で作成される。
まず、予め決められた位置に配置された距離画像センサを用いて、被写体の二次元画像データである撮像データと、該距離画像センサから前記被写体までの距離の二次元分布を表す深度マップを取得する。そして、撮像データの各画素位置に対応する平面座標と、深度マップの各点における距離情報から、それぞれが空間座標を持つ多数の点を生成することができる。このとき、深度マップにおいて背景(壁等)に相当する距離の点は除外され、被写体の輪郭を構成する点が抽出される。続いて、ドロネー三角形分割法(非特許文献1参照)等の手法により、これらの点群のうちの近接3点を結んでなる三角形が順次生成されポリゴンが作成される。
The three-dimensional polygon model is created by the following procedure.
First, using a distance image sensor arranged at a predetermined position, image data that is two-dimensional image data of a subject and a depth map representing a two-dimensional distribution of the distance from the distance image sensor to the subject are acquired. To do. Then, a large number of points each having a spatial coordinate can be generated from the plane coordinates corresponding to each pixel position of the imaging data and the distance information at each point of the depth map. At this time, points of distance corresponding to the background (wall or the like) in the depth map are excluded, and points constituting the contour of the subject are extracted. Subsequently, a triangle formed by connecting three adjacent points out of these point groups is sequentially generated by a technique such as Delaunay triangulation (see Non-Patent Document 1) to create a polygon.

上記の方法では、距離画像センサが予め決められた1箇所のみに配置されるため、特定の1方向(該1箇所から被写体を見た方向)から見える三次元ポリゴンモデルしか作成することができない。任意の視点から見ることができる三次元ポリゴンモデルを作成する場合には、複数の方向から見た被写体の撮像データと深度マップを取得し、それぞれの方向で形成された三次元ポリゴンモデルを1つに統合する必要がある。以下、本明細書では、1方向から見た情報のみから作成された三次元ポリゴンモデルを部分三次元ポリゴンモデル、該部分三次元ポリゴンモデルを統合した三次元ポリゴンモデルを全体三次元ポリゴンモデル、とも呼ぶ。   In the above method, since the distance image sensor is arranged at only one predetermined position, it is possible to create only a three-dimensional polygon model that can be seen from one specific direction (the direction from which the subject is viewed). When creating a 3D polygon model that can be viewed from an arbitrary viewpoint, the imaging data and depth map of the subject viewed from multiple directions are acquired, and one 3D polygon model formed in each direction is obtained. Need to be integrated into. Hereinafter, in this specification, a 3D polygon model created only from information viewed from one direction is a partial 3D polygon model, and a 3D polygon model obtained by integrating the partial 3D polygon model is an overall 3D polygon model. Call.

特開2014−67372号公報JP 2014-67372 A

“MathWorks: Delaunay三角形分割”,[online], Fast Facts,[平成28年2月19日検索],インターネット<URL: http://jp.mathworks.com/help/matlab/math/delaunay-triangulation.html?requestedDomain=jp.mathworks.com>“MathWorks: Delaunay triangulation”, [online], Fast Facts, [searched February 19, 2016], Internet <URL: http://jp.mathworks.com/help/matlab/math/delaunay-triangulation. html? requestedDomain = jp.mathworks.com>

従来、複数の部分三次元ポリゴンモデルを1つの全体三次元ポリゴンモデルに統合する作業は、オペレータが画面を見ながら各部分三次元ポリゴンモデルを回転したり移動したりして該部分三次元ポリゴンモデルの結合位置を決め、さらに各部分三次元ポリゴンモデルの端部のデータを組み合わせることにより、手動で行っていた。また、このようにして部分三次元ポリゴンモデルを統合しても、その連結部が完全には一致しないことが多く、各部分三次元ポリゴンモデルの結合部分におけるズレを修正する作業も、オペレータが手動で行っていた。   Conventionally, the operation of integrating a plurality of partial 3D polygon models into one overall 3D polygon model is performed by rotating or moving each partial 3D polygon model while an operator looks at the screen. This is done manually by deciding the coupling position and combining the data of the end of each partial 3D polygon model. In addition, even if partial 3D polygon models are integrated in this way, their connected parts often do not completely match, and the operator manually corrects the misalignment at the joint of each partial 3D polygon model. I went there.

また、距離画像センサにより得られる深度マップの距離情報には多少の誤差が含まれる。距離情報の誤差を含んだ点は被写体の輪郭から離れて位置し、こうした点が複数集まると被写体のポリゴンから離間し独立した別の小さなポリゴン集合体が構成される。このように被写体のポリゴンから独立に構成されたポリゴンを削除する作業も、オペレータが手動で行っていた。
このように、従来、被写体の全体三次元ポリゴンモデルを作成するのにオペレータが煩雑な作業を行わなければならず、時間と手間がかかるという問題があった。
In addition, the depth information obtained by the distance image sensor includes some errors. The points including the error in the distance information are located away from the contour of the subject, and when a plurality of such points are collected, another small polygon aggregate that is separated from the subject polygon is formed. In this manner, the operator manually deletes the polygon that is configured independently from the polygon of the subject.
As described above, conventionally, there has been a problem that it takes time and labor for the operator to perform complicated work to create the entire three-dimensional polygon model of the subject.

本発明が解決しようとする課題は、任意の方向から見ることができる被写体の三次元モデルを簡便に作成する技術を提供することである。   The problem to be solved by the present invention is to provide a technique for easily creating a three-dimensional model of a subject that can be viewed from an arbitrary direction.

上記課題を解決するために成された本発明に係る三次元モデルの作成方法は、
a) 被写体を取り囲むように配置した4台以上の距離画像センサのそれぞれにより、被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データを取得する工程と、
b) 前記4台以上の距離画像センサのそれぞれについて、前記撮像データと前記深度データから複数の点の空間座標を生成する工程と、
c) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する工程と、
d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する工程と、
e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除する工程と
を含むことを特徴とする。
A method for creating a three-dimensional model according to the present invention made to solve the above problems is as follows.
a) Image data that is two-dimensional image data of a subject and depth data representing a two-dimensional distribution of the distance from the distance image sensor to the subject by each of four or more distance image sensors arranged so as to surround the subject. A process of obtaining
b) generating spatial coordinates of a plurality of points from the imaging data and the depth data for each of the four or more range image sensors;
c) A partial three-dimensional combination of a plurality of polygons created by connecting a predetermined number of points located on the same plane among the plurality of points for each of the four or more distance image sensors. Creating a polygon model;
d) Spatial coordinates corresponding to one common spatial coordinate system obtained by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model based on the positional relationship between the corresponding distance image sensor and the subject. Converting the plurality of partial three-dimensional polygon models into one and creating a whole three-dimensional polygon model;
e) deleting the polygon aggregate formed by connecting a predetermined number or less of polygons in the entire three-dimensional polygon model.

前記ポリゴンは、典型的には1つの面を規定するために必要な最小数である3個の点を結んでなる三角形であるが、4個の点を結んでなる四角形あるいはそれ以上の点を結んでなるポリゴンであってもよい。また、複数の点から部分三次元ポリゴンモデルを作成する方法には、例えば非特許文献1に記載のドロネー三角形分割法を用いることができる。   The polygon is typically a triangle formed by connecting three points, which is the minimum number required to define one surface, but a quadrangle formed by connecting four points or more points. It may be a polygon formed by connecting. As a method for creating a partial three-dimensional polygon model from a plurality of points, for example, the Delaunay triangulation method described in Non-Patent Document 1 can be used.

本発明に係る三次元モデル作成方法では、被写体を取り囲むように4台以上の距離画像センサを配置する。そして、それぞれの距離画像センサにより撮像データと深度データの組を取得し、その各組から取得した複数の点を結んだポリゴンを複数組み合わせて部分三次元ポリゴンモデルを作成する。そして、座標変換により部分三次元ポリゴンモデルを1つの共通空間座標系に対応した変換部分三次元ポリゴンモデルに変換し、それらを組み合わせて全体三次元ポリゴンモデルに統合する。つまり、従来のようにオペレータが部分三次元ポリゴンモデルを回転・移動したり端部のデータを組み合わせたりする必要がなく、簡便に全体三次元ポリゴンモデルからなる三次元モデルを作成することができる。   In the three-dimensional model creation method according to the present invention, four or more distance image sensors are arranged so as to surround the subject. Then, a set of imaging data and depth data is acquired by each distance image sensor, and a partial three-dimensional polygon model is created by combining a plurality of polygons connecting a plurality of points acquired from each set. Then, the partial 3D polygon model is converted into a converted partial 3D polygon model corresponding to one common space coordinate system by coordinate conversion, and these are combined and integrated into the entire 3D polygon model. That is, it is not necessary for the operator to rotate and move the partial 3D polygon model or to combine the end portion data as in the prior art, and a 3D model composed of the entire 3D polygon model can be created easily.

また、本発明に係る三次元モデル作成方法では、全体三次元ポリゴンモデルから、所定数以下のポリゴンが連なって構成されたポリゴン集合体を機械的に削除する。深度マップにおける距離情報の誤差を含んだ複数の点で構成されるポリゴン集合体は、被写体を構成する多数のポリゴンから離間して位置し、また構成するポリゴンの数も少ない。本発明に係る三次元モデル作成方法では、こうしたポリゴン集合体を、その構成数に基づいて機械的に削除するため、従来のようにオペレータが距離情報の誤差を含む点からなるポリゴンを個別に確認して手作業で削除する必要がなく、簡便に全体三次元ポリゴンモデルからなる三次元モデルを作成することができる。   Further, in the three-dimensional model creation method according to the present invention, a polygon aggregate composed of a predetermined number or less of polygons is mechanically deleted from the entire three-dimensional polygon model. A polygon aggregate composed of a plurality of points including errors in distance information in the depth map is located away from a large number of polygons constituting the subject, and the number of polygons configured is small. In the 3D model creation method according to the present invention, such polygon aggregates are mechanically deleted based on the number of components, so that the operator individually confirms polygons including points including errors in distance information as in the past. Thus, it is not necessary to delete manually, and a 3D model composed of the entire 3D polygon model can be easily created.

また、本発明に係る三次元モデルの作成方法では、さらに、
f) 前記部分三次元ポリゴンモデルのそれぞれにおいて、前記複数のポリゴンのうち、前記距離画像センサから該ポリゴンの中心点に向かう視線ベクトルと、当該ポリゴンの法線ベクトルがなす角が90度以下であるポリゴンを削除する工程
を含むことが好ましい。
In the method of creating a three-dimensional model according to the present invention,
f) In each of the partial three-dimensional polygon models, the angle formed by the line-of-sight vector from the distance image sensor to the center point of the polygon and the normal vector of the polygon among the plurality of polygons is 90 degrees or less. Preferably, the method includes a step of deleting polygons.

市販されている距離画像センサの中には、該距離画像センサの視野に直接捉えられる点だけでなく、被写体の裏側に位置する点を推定して自動的に推定点を付加する機能を有するものがある。しかし、このようにして付加された推定点の精度は必ずしも高くない。また、本発明に係る三次元モデルの作成方法では、被写体を取り囲むように配置した4台以上の距離画像センサにより被写体の点を得ることができるため、距離画像センサにより自動的に付加される推定点は不要である。上記態様の方法では、推定点を含んで構成されるポリゴンの法線と距離画像センサから該ポリゴンの中心点に向かう視線ベクトルがなす角は90度以下になることを利用して当該ポリゴンを削除し、部分三次元ポリゴンの精度を高めることができる。   Some commercially available range image sensors have a function to estimate not only the points that can be directly captured in the field of view of the range image sensor but also the points that are located behind the subject and automatically add the estimated points. There is. However, the accuracy of the estimated points added in this way is not necessarily high. Further, in the method for creating a three-dimensional model according to the present invention, since the point of the subject can be obtained by four or more distance image sensors arranged so as to surround the subject, the estimation automatically added by the distance image sensor A point is not necessary. In the method of the above aspect, the polygon is deleted by utilizing the fact that the normal formed by the polygon including the estimated point and the line-of-sight vector from the distance image sensor toward the center of the polygon is 90 degrees or less. In addition, the accuracy of the partial 3D polygon can be increased.

さらに、本発明に係る三次元モデルの作成方法では、
g) 前記全体三次元ポリゴンモデルに、予め用意された、直線で表される複数の骨と、点で表されそれぞれが前記骨を連結する複数の関節とを含む骨格データを組み合わせた静止三次元モデルを作成する工程と、
h) 前記静止三次元モデルの各点に、該点と前記骨の距離に応じたウエイト値を設定する工程と、
i) 所定の動作を前記骨と前記関節の動きで表現する動作データを前記静止三次元モデルのデータに重畳し、該動作データと前記ウエイト値に基づいて前記点を移動させる工程と、
を含むことができる。
Furthermore, in the method for creating a three-dimensional model according to the present invention,
g) Static 3D combining the entire 3D polygon model with skeleton data prepared in advance and including a plurality of bones represented by straight lines and a plurality of joints represented by points and each connecting the bones Creating a model;
h) setting a weight value according to the distance between the point and the bone for each point of the stationary three-dimensional model;
i) superimposing motion data expressing a predetermined motion by motion of the bone and the joint on the data of the stationary three-dimensional model, and moving the point based on the motion data and the weight value;
Can be included.

上記態様の三次元モデルの作成方法では、骨格データを組み合わせた静止三次元モデルに動作データを適用して、任意の動作をさせることができる三次元モデルを作成することができる。   In the three-dimensional model creation method of the above aspect, the motion data can be applied to the stationary three-dimensional model in which the skeleton data is combined to create a three-dimensional model that can perform any motion.

また、上記課題を解決するために成された本発明に係る三次元モデル作成装置は、
a) 被写体を取り囲むように配置された4台以上の距離画像センサのそれぞれにより取得された、被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データの入力を受け付けるデータ受付部と、
b) 前記撮像データと前記深度データの各組について複数の点の空間座標を生成する点座標生成部と、
c) それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
を備えることを特徴とする。
In addition, a three-dimensional model creation device according to the present invention made to solve the above problems,
a) Imaging data that is two-dimensional image data of a subject acquired by each of four or more distance image sensors arranged so as to surround the subject, and a two-dimensional distribution of distances from the distance image sensor to the subject A data receiving unit for receiving input of depth data representing
b) a point coordinate generation unit that generates spatial coordinates of a plurality of points for each set of the imaging data and the depth data;
c) A partial 3D polygon model creation unit for creating a partial 3D polygon model made up of a combination of a plurality of polygons, each created by connecting a predetermined number of points located on the same plane among the plurality of points When,
d) Spatial coordinates corresponding to one common spatial coordinate system obtained by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model based on the positional relationship between the corresponding distance image sensor and the subject. An overall 3D polygon model creation unit that creates an overall 3D polygon model in which a plurality of the partial 3D polygon models are integrated into one,
e) In the overall three-dimensional polygon model, a polygon aggregate deletion unit that deletes a polygon aggregate composed of a predetermined number of polygons or less, and
It is characterized by providing.

さらに、上記課題を解決するために成された本発明に係る三次元モデルの作成システムは、
a) 予め決められた被写体位置を取り囲むように配置される、それぞれが被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データを取得可能である4台以上の距離画像センサと、
b) 使用者による所定の入力操作に応じて、前記4台以上の距離画像センサのそれぞれにより、前記被写体の撮像データと深度データを取得するデータ取得部と、
c) 前記4台以上の距離画像センサのそれぞれにより取得した、前記撮像データと前記深度データの各組について複数の点の空間座標を生成する頂点座標生成部と、
d) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
e) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
f) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
を備えることを特徴とする。
Furthermore, a system for creating a three-dimensional model according to the present invention, which has been made to solve the above problems,
a) Acquire imaging data that is arranged so as to surround a predetermined subject position, each of which is two-dimensional image data of the subject, and depth data representing a two-dimensional distribution of the distance from the distance image sensor to the subject. 4 or more range image sensors that are possible,
b) a data acquisition unit for acquiring imaging data and depth data of the subject by each of the four or more distance image sensors in accordance with a predetermined input operation by a user;
c) a vertex coordinate generation unit that generates spatial coordinates of a plurality of points for each set of the imaging data and the depth data acquired by each of the four or more distance image sensors;
d) For each of the four or more distance image sensors, a partial three-dimensional combination composed of a combination of a plurality of polygons created by connecting a predetermined number of points located on the same plane among the plurality of points. A partial 3D polygon model creation unit for creating a polygon model;
e) Spatial coordinates corresponding to one common space coordinate system by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model into coordinates based on the positional relationship between the corresponding distance image sensor and the subject. An overall 3D polygon model creation unit that creates an overall 3D polygon model in which a plurality of the partial 3D polygon models are integrated into one,
f) In the overall three-dimensional polygon model, a polygon aggregate deleting unit that deletes a polygon aggregate composed of a predetermined number of polygons or less, and
It is characterized by providing.

本発明に係る三次元モデルの作成技術を用いることにより、任意の方向から見ることができる被写体の三次元モデルを簡便に作成することができる。   By using the 3D model creation technique according to the present invention, it is possible to easily create a 3D model of a subject that can be viewed from any direction.

本発明に係る三次元モデルの作成システム(三次元モデル作成装置を含む)の一実施例の概略構成図。1 is a schematic configuration diagram of an embodiment of a 3D model creation system (including a 3D model creation apparatus) according to the present invention. 本発明に係る三次元モデルの作成方法の一実施例のフローチャート。The flowchart of one Example of the preparation method of the three-dimensional model which concerns on this invention. 本発明に係る三次元モデルの作成システム(三次元モデル作成装置を含む)の別の実施例の概略構成図。The schematic block diagram of another Example of the production system (a 3D model production apparatus is included) of the three-dimensional model which concerns on this invention. 実施例2において用いるARマーカの一例。An example of the AR marker used in Example 2. FIG.

本発明に係る三次元モデルの作成方法、作成装置、及び作成システムの実施例について、以下、図面を参照して説明する。本実施例は、人間(被写体)を距離画像センサにより撮影したデータをコンピュータ処理することにより三次元ポリゴンモデルを作成するとともに、モーションデータを重畳して該三次元ポリゴンモデルに任意の動きを与えた三次元モデルを作成する技術である。   Embodiments of a 3D model creation method, a creation apparatus, and a creation system according to the present invention will be described below with reference to the drawings. In this embodiment, a three-dimensional polygon model is created by computer processing data obtained by photographing a human (subject) with a distance image sensor, and an arbitrary motion is given to the three-dimensional polygon model by superimposing motion data. This is a technique for creating a three-dimensional model.

図1は、本実施例における三次元モデルの作成システム1(以下、単に「作成システム」とも呼ぶ。)の概略構成図である。また、図2は、本実施例における三次元モデルの作成方法(以下、単に「作成方法」とも呼ぶ。)におけるフローチャートである。   FIG. 1 is a schematic configuration diagram of a three-dimensional model creation system 1 (hereinafter also simply referred to as “creation system”) in the present embodiment. FIG. 2 is a flowchart of a 3D model creation method (hereinafter also simply referred to as “creation method”) in the present embodiment.

本実施例の作成システム1は、撮像空間10において被写体位置Pを取り囲むように配置され、撮影制御部16による制御の下で動作する4台の距離画像センサ11〜14と、三次元モデル作成装置20(本発明に係る三次元モデル作成装置の一実施例に相当。以下、単に「作成装置」とも呼ぶ。)を備えている。4台の距離画像センサ11〜14のうちの3台(11〜13)は水平方向から被写体を捉えるように、等間隔に横置きで配置され、1台(14)は被写体の鉛直上方から被写体を捉えるように配置される。水平方向から被写体を捉える3台の距離画像センサ11〜13の視野には、被写体と所定の背景11a〜13a(例えばや単色の布や壁)が捉えられる。また、鉛直上方から被写体を捉える距離画像センサ14の視野には被写体と床が捉えられる。各距離画像センサ11〜14は、その視野に他の距離画像センサが入り込まないように配置される。本実施例の距離画像センサ11〜14にはKinect(MICROSOFT CORPORATIONの登録商標、製品名)であるが、同様に撮像データと深度データを取得可能なものであれば他のセンサを用いてもよい。   The creation system 1 of the present embodiment is arranged so as to surround the subject position P in the imaging space 10 and operates under the control of the imaging control unit 16, and the three distance image sensors 11 to 14, and the three-dimensional model creation device 20 (corresponding to an embodiment of the three-dimensional model creation apparatus according to the present invention. Hereinafter, it is also simply referred to as “creation apparatus”). Three of the four distance image sensors 11 to 14 (11 to 13) are arranged horizontally at equal intervals so as to capture the subject from the horizontal direction, and one (14) is the subject from above the subject. It is arranged to capture. In the field of view of the three distance image sensors 11 to 13 that capture the subject from the horizontal direction, the subject and a predetermined background 11a to 13a (for example, a single-color cloth or wall) are captured. In addition, the subject and the floor are captured in the field of view of the distance image sensor 14 that captures the subject from vertically above. Each distance image sensor 11-14 is arrange | positioned so that another distance image sensor may not enter into the visual field. Although the distance image sensors 11 to 14 of this embodiment are Kinect (registered trademark of MICROSOFT CORPORATION, product name), other sensors may be used as long as they can acquire image data and depth data. .

作成装置20は、記憶部21のほかに、データ受付部22、点座標生成部23、部分三次元ポリゴンモデル作成部24、ポリゴンリダクション部25、背面ポリゴン削除部26、テクスチャ設定部27、全体三次元ポリゴンモデル作成部28、ノイズ削除部29、重複点整理部30、全体三次元ポリゴンモデル補正部31、ボーンデータ生成部32、ウエイト設定部33、及びモーションデータ重畳部34を機能ブロックとして備えている。作成装置20の実体は一般的なパーソナルコンピュータであり、入力部40、及び表示部50が接続されている。また、上記各機能ブロック22〜34は、コンピュータにインストールされた三次元モデル作成用プログラムをCPUに実行させることにより具現化することができる。各部の動作は後述する。記憶部21には、次に説明する手順により作成される座標変換行列、及び後述するモーションデータが保存されている。   In addition to the storage unit 21, the creation device 20 includes a data reception unit 22, a point coordinate generation unit 23, a partial 3D polygon model creation unit 24, a polygon reduction unit 25, a backside polygon deletion unit 26, a texture setting unit 27, an overall tertiary. An original polygon model creation unit 28, a noise deletion unit 29, an overlapping point arrangement unit 30, an overall three-dimensional polygon model correction unit 31, a bone data generation unit 32, a weight setting unit 33, and a motion data superimposition unit 34 are provided as functional blocks. Yes. The entity of the creation device 20 is a general personal computer, and an input unit 40 and a display unit 50 are connected to it. The functional blocks 22 to 34 can be realized by causing a CPU to execute a 3D model creation program installed in a computer. The operation of each part will be described later. The storage unit 21 stores a coordinate transformation matrix created by the procedure described below and motion data described later.

記憶部21に保存される座標変換行列は以下のようにして作成される。
被写体の三次元モデルを作成するに先立ち、上記4台の距離画像センサ11〜14の位置と視野を固定する。そして、被写体として複数のボール(同一直線上に位置しない少なくとも3個のボール)を配置して各距離画像センサ11〜14で該複数のボールを撮影し、該複数のボールの撮像データと深度データを取得する。ここで、撮像データとは二次元のカラー画像データ(二次元に配置された各画素が色情報を持つデータ)であり、深度データとは距離画像センサからの距離の二次元分布を表すデータである。
The coordinate transformation matrix stored in the storage unit 21 is created as follows.
Prior to creating the three-dimensional model of the subject, the positions and fields of view of the four distance image sensors 11 to 14 are fixed. Then, a plurality of balls (at least three balls not located on the same straight line) are arranged as subjects, and the plurality of balls are photographed by the distance image sensors 11 to 14, and the imaging data and depth data of the plurality of balls are captured. To get. Here, the imaging data is two-dimensional color image data (data in which each pixel arranged two-dimensionally has color information), and the depth data is data representing a two-dimensional distribution of distance from the distance image sensor. is there.

各距離画像センサ11〜14について、それぞれ前記複数のボールの撮像データと深度データを取得すると、これらデータの組から、各距離画像センサ11〜14から見た複数のボールのそれぞれの空間座標が求められる。このとき求められる空間座標を規定する3軸は4台の距離画像センサ11〜14でそれぞれ異なる。続いて、同一のボールについて異なる距離画像センサから求められた空間座標が相互に比較され、これにより4つの距離画像センサの間の3軸の関係が求められ、各距離画像センサの空間座標系を1つの共通する空間座標系に変換するための変換行列が、距離画像センサ毎に作成される。なお、1つの共通する空間座標系として、4台の距離画像センサのうちの1つの空間座標系をそのまま用いることができる。   When the imaging data and the depth data of the plurality of balls are acquired for each of the distance image sensors 11 to 14, the spatial coordinates of the plurality of balls viewed from the distance image sensors 11 to 14 are obtained from the data sets. It is done. The three axes defining the spatial coordinates required at this time are different for each of the four distance image sensors 11-14. Subsequently, spatial coordinates obtained from different distance image sensors for the same ball are compared with each other, thereby obtaining a three-axis relationship between the four distance image sensors. A conversion matrix for converting into one common spatial coordinate system is created for each distance image sensor. As one common spatial coordinate system, one spatial coordinate system of the four distance image sensors can be used as it is.

以下、本実施例における三次元モデルの作成方法を説明する。
使用者が所定の入力(例えば入力部を通じて画面上の「スタート」ボタンを押下する入力動作)により三次元モデルの作成を指示すると、撮影制御部16が、使用者に被写体位置に所定のポーズで立つよう指示する。ここで、所定のポーズとは、撮影時に全ての距離画像センサ11〜14の死角になる領域をできるだけ少なくしたポーズであり、例えば両手を水平に広げ、足を肩幅程度に広げて立つ姿勢(Tポーズと呼ばれる姿勢)である。
Hereinafter, a method for creating a three-dimensional model in this embodiment will be described.
When the user gives an instruction to create a 3D model by a predetermined input (for example, an input operation of pressing the “start” button on the screen through the input unit), the imaging control unit 16 gives the user a predetermined pose at the subject position. Instruct them to stand. Here, the predetermined pose is a pose in which the area that becomes the blind spot of all the distance image sensors 11 to 14 is reduced as much as possible at the time of photographing. For example, the posture (T Posture).

撮影制御部16は、使用者に上記指示を行ってから一定時間(使用者が上記ポーズで被写体位置に立つまでに要する時間)経過後、全ての距離画像センサ11〜14を同時に動作させ、それぞれについて撮像データと深度データを取得する(ステップS1)。各距離画像センサ11〜14で取得された撮像データと深度データは、それぞれ1組のデータとして三次元モデル作成装置20に送信される。本実施例で距離画像センサ11〜14として用いているKinectは、被写体の輪郭をKinect自身が有するボーンデータベースと照合し、適合するボーンデータ(人間を複数の骨と、骨を連結する関節で表現したデータ。骨格データともいう。)を出力する機能を備えているため、撮像データと深度データに加え、被写体のボーンデータも同時に得られる(ステップS2)。このボーンデータも同時に三次元モデル作成装置20に送信される。   The imaging control unit 16 operates all the distance image sensors 11 to 14 at the same time after elapse of a certain time (time required for the user to stand at the subject position in the pose) after giving the instruction to the user. Imaging data and depth data are acquired for (step S1). The imaging data and depth data acquired by each of the distance image sensors 11 to 14 are transmitted to the 3D model creation apparatus 20 as a set of data. The Kinect used as the distance image sensors 11 to 14 in the present embodiment compares the contour of the subject with the bone database owned by Kinect itself and matches the bone data (representing a human by a plurality of bones and joints connecting the bones). In addition to the imaging data and the depth data, the subject bone data can be obtained at the same time (step S2). This bone data is also transmitted to the three-dimensional model creation device 20 at the same time.

データ受付部22は各距離画像センサ11〜14から送られる撮像データ及び深度データ、並びにボーンデータを受け取り、記憶部21に保存する。撮像データと深度データが記憶部21に保存されると、点座標生成部23は、距離画像センサ11〜14のそれぞれについて、撮像データの各画素位置に対応する平面座標及び各画素が有する色情報と、深度データの各点における距離情報から、それぞれが空間座標と色情報を持つ多数の点(ポイントクラウド)を生成する(ステップS3)。   The data receiving unit 22 receives imaging data and depth data and bone data sent from the distance image sensors 11 to 14 and stores them in the storage unit 21. When the imaging data and the depth data are stored in the storage unit 21, the point coordinate generation unit 23, for each of the distance image sensors 11 to 14, is a plane coordinate corresponding to each pixel position of the imaging data and the color information that each pixel has. Then, from the distance information at each point of the depth data, a large number of points (point clouds) each having spatial coordinates and color information are generated (step S3).

続いて、部分三次元ポリゴンモデル作成部24は、各距離画像センサ11〜14について生成した、空間座標を持つ複数の点から所定の規則(例えばドロネー三角形分割法に基づく規則)に従って近接3点を結んでなる三角形(ポリゴン)を順次生成し、前記複数の点から部分三次元ポリゴンモデルを作成する(ステップS4)。ここで、部分三次元ポリゴンモデルとは、被写体を特定の1方向(即ち対応する距離画像センサ)から見た三次元ポリゴンモデルである。このときポリゴンの各面の色は、当該面を構成する3点の色(色情報に基づく色)の平均色となる。なお、ここでは3点を結んでなる三角形をポリゴンとしたが、4点以上を結んでポリゴンを作成してもよい。   Subsequently, the partial three-dimensional polygon model creation unit 24 calculates three adjacent points according to a predetermined rule (for example, a rule based on the Delaunay triangulation method) from a plurality of points having spatial coordinates generated for each of the distance image sensors 11 to 14. Connected triangles (polygons) are sequentially generated, and a partial three-dimensional polygon model is created from the plurality of points (step S4). Here, the partial three-dimensional polygon model is a three-dimensional polygon model in which the subject is viewed from one specific direction (that is, a corresponding distance image sensor). At this time, the color of each surface of the polygon is an average color of the three colors (color based on the color information) constituting the surface. Although a triangle formed by connecting three points is a polygon here, a polygon may be created by connecting four or more points.

各距離画像センサ11〜14について部分三次元ポリゴンモデルが作成されると、ポリゴンリダクション部25は、各部分三次元ポリゴンモデルをハイポリゴン(多数の点から作成されたポリゴン)からローポリゴン(ハイポリゴンよりも少ない点数で作成されたポリゴン)に変換するポリゴンリダクションを実行する。この変換は、各ポリゴンを該ポリゴンの重心に位置する1つの点に変換する操作(変換された点の色はポリゴンの色になる)を全てのポリゴンについて行い、これにより作成された新たな点を上記ドロネー三角形法等により結んで新たなポリゴンを生成し(このポリゴンの色は当該ポリゴンを構成する点の色の平均色となる)、新たに部分三次元ポリゴンモデル(ローポリゴン)を作成することにより実行される(ステップS5)。この処理によりポリゴン数が少なくなるため、後述する各工程における処理の負荷が軽減され高速処理が実現される。なお、本実施例ではパーソナルコンピュータを三次元モデル作成装置20として用いているため、処理の負荷の軽減を目的とするポリゴンリダクションを行ったが、高速処理が可能なハイエンドのコンピュータを三次元モデル作成装置20として用いる場合にはポリゴンリダクションを行うことなく(即ちハイポリゴンのまま)以下の工程を行うようにしてもよい。   When a partial 3D polygon model is created for each of the distance image sensors 11 to 14, the polygon reduction unit 25 converts each partial 3D polygon model from a high polygon (polygon created from a large number of points) to a low polygon (high polygon). Polygon reduction converted to polygons created with fewer points). In this conversion, an operation for converting each polygon into one point located at the center of gravity of the polygon (the color of the converted point becomes the color of the polygon) is performed for all the polygons, and a new point created thereby Are connected by the Delaunay triangulation method or the like to generate a new polygon (the color of this polygon is the average color of the points constituting the polygon), and a new partial three-dimensional polygon model (low polygon) is created. (Step S5). Since the number of polygons is reduced by this processing, the processing load in each process described later is reduced and high-speed processing is realized. In this embodiment, since a personal computer is used as the 3D model creation apparatus 20, polygon reduction is performed for the purpose of reducing the processing load. However, a high-end computer capable of high-speed processing can be created as a 3D model. When used as the apparatus 20, the following steps may be performed without performing polygon reduction (that is, with a high polygon).

次に、背面ポリゴン削除部26は、各部分三次元ポリゴンモデルについて、該部分三次元ポリゴンモデルを構成する全てのポリゴンの法線と、対応する距離画像センサ11〜14の視線ベクトルのなす角度を求め、これが90度以下であるポリゴンを不要ポリゴンと見なして削除する(ステップS6)。これは、距離画像センサの視野に直接捉えることが不可能な、被写体の背面側を構成するポリゴンの法線と、当該ポリゴンの中心に向かう距離画像センサ11〜14の視線ベクトルがなす角度が90度以下になることを利用した処理である。本実施例において用いるKinectは、直接視野に捉えることができない被写体の背面側にも推定点を生成する機能を有しているが、必ずしもその精度は高くない。また、本実施例の三次元モデル作成方法では、複数のKinectによりそれぞれ異なる方向から見た部分三次元ポリゴンモデルを作成するため、こうした推定点を結んで成るポリゴンを用いる必要もない。従って、本実施例では、上記方法で不要ポリゴンを削除する。なお、被写体の背面側に推定点を生成する機能を有しない距離画像センサを用いる場合は、このステップを行う必要はない。   Next, for each partial 3D polygon model, the back polygon deletion unit 26 calculates the angle formed by the normals of all the polygons constituting the partial 3D polygon model and the line-of-sight vectors of the corresponding distance image sensors 11 to 14. Then, the polygon whose angle is 90 degrees or less is regarded as an unnecessary polygon and is deleted (step S6). This is because the angle between the normal line of the polygon that forms the back side of the subject and the line-of-sight vector of the distance image sensors 11 to 14 toward the center of the polygon, which cannot be directly captured in the visual field of the distance image sensor, is 90. It is a process that uses the fact that it becomes less than the degree. Kinect used in this embodiment has a function of generating an estimated point on the back side of a subject that cannot be directly captured in the visual field, but the accuracy is not necessarily high. Further, in the three-dimensional model creation method of this embodiment, partial three-dimensional polygon models viewed from different directions are created by a plurality of Kinects, so there is no need to use polygons formed by connecting these estimated points. Therefore, in this embodiment, unnecessary polygons are deleted by the above method. Note that this step is not necessary when using a distance image sensor that does not have a function of generating an estimated point on the back side of the subject.

この段階では、部分三次元ポリゴンモデルを構成するポリゴンのそれぞれが1色で表現されており、隣接するポリゴンとの色の差が目立つ。そこで、テクスチャ設定部27が、各部分三次元ポリゴンモデルに、対応する距離画像センサ11〜14で取得した撮像データを貼り合わせる処理(テクスチャの貼り付け処理)を行う(ステップS7)。この処理は、撮像データを各部分三次元ポリゴンモデルに投影することにより行われる。各部分三次元ポリゴンモデルは、上記ポリゴンリダクションにより点数を減らしているため、画素データを構成する画素数と一致しない。言い換えれば、画素データを投影したときに画素の位置と点の位置は一致しない。しかし、投影処理においてこれらが必ずしも一致する必要はなく、むしろ、一致しないことにより、点と点を結ぶ線分やポリゴンを複数の異なる色で表現することが可能になる。上記点数の不一致は、例えば、画素データの解像度と深度データの解像度が同一でなく(例えば深度データの方が解像度が低く)、上述のステップS3において低い解像度のデータに合わせて複数の点を生成した場合にも起こる。   At this stage, each of the polygons constituting the partial three-dimensional polygon model is expressed by one color, and the color difference from the adjacent polygon is conspicuous. Therefore, the texture setting unit 27 performs processing (texture pasting processing) for pasting the imaging data acquired by the corresponding distance image sensors 11 to 14 to each partial three-dimensional polygon model (step S7). This process is performed by projecting the imaging data onto each partial three-dimensional polygon model. Each partial three-dimensional polygon model does not match the number of pixels constituting the pixel data because the number of points is reduced by the polygon reduction. In other words, the pixel position and the point position do not match when the pixel data is projected. However, these do not necessarily match in the projection processing. Rather, by not matching, it becomes possible to express a line segment or a polygon connecting the points with a plurality of different colors. The discrepancy between the points is, for example, that the resolution of the pixel data and the resolution of the depth data are not the same (for example, the resolution of the depth data is lower), and a plurality of points are generated in accordance with the lower resolution data in step S3 described above. It also happens if you do.

部分三次元ポリゴンモデルへのテクスチャの貼り付けを終えると、全体三次元ポリゴンモデル作成部28は、記憶部21から、距離画像センサ11〜14に対応する座標変換行列をそれぞれ読み出す。そして、全ての部分三次元ポリゴンモデルを構成する各点の空間座標を、対応する座標変換行列により共通の空間座標系における空間座標に変換する。これにより、全ての部分三次元ポリゴンモデルが1つの空間座標系に配置され、自動的に部分三次元ポリゴンモデルが統合され、全体三次元ポリゴンモデルが作成される(ステップS8)。そのため、従来のように、オペレータが自ら各部分三次元ポリゴンモデルを回転、移動して結合位置を決めたり、該結合位置において端部データを連結させたりする処理を行う必要がなく、簡便かつ正確に全体三次元ポリゴンモデルを作成することができる。   When the pasting of the texture to the partial 3D polygon model is finished, the overall 3D polygon model creation unit 28 reads out the coordinate transformation matrices corresponding to the distance image sensors 11 to 14 from the storage unit 21. Then, the spatial coordinates of each point constituting all the partial 3D polygon models are converted into the spatial coordinates in the common spatial coordinate system by the corresponding coordinate conversion matrix. As a result, all the partial 3D polygon models are arranged in one spatial coordinate system, the partial 3D polygon models are automatically integrated, and an overall 3D polygon model is created (step S8). Therefore, unlike the conventional case, it is not necessary for the operator to rotate and move each partial 3D polygon model to determine the coupling position or to connect end data at the coupling position. An overall 3D polygon model can be created.

次に、ノイズ削除部29は、作成された全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除(ノイズであるポリゴン集合体を削除)する(ステップS9)。距離画像センサ11〜14から得られる深度データには距離情報の多少の誤差が含まれていることが多い。こうした誤差を含んだ複数の点で構成されるポリゴン集合体は、被写体を構成する多数のポリゴンから離間して空間に浮遊しており、また該集合体を構成するポリゴンの数も少ない。本実施例の三次元モデル作成方法ではこうしたポリゴン集合体を、構成するポリゴンの数に基づいて機械的に削除するため、従来のようにオペレータが距離情報の誤差を含む点からなるポリゴンを個別に確認して手作業で削除する必要がなく、簡便に全体三次元ポリゴンモデルを作成することができる。   Next, the noise deleting unit 29 deletes a polygon aggregate composed of a predetermined number or less of polygons in the created overall three-dimensional polygon model (deletes a polygon aggregate that is a noise) (step S9). . The depth data obtained from the distance image sensors 11 to 14 often includes some errors in distance information. A polygon aggregate composed of a plurality of points including such errors floats in a space apart from a large number of polygons constituting the subject, and the number of polygons constituting the aggregate is small. In the 3D model creation method according to the present embodiment, such a polygon aggregate is mechanically deleted based on the number of polygons that constitute the polygon. There is no need to confirm and manually delete the entire three-dimensional polygon model.

さらに、重複点整理部30は、全体三次元ポリゴンモデルが位置する空間の3軸方向のそれぞれにおいて所定の間隔でグリッドを配置し、空間を微小な立方体に分割する。この所定の間隔は、全体三次元ポリゴンモデルを構成する点の数に応じて適宜に決められる。そして、各立方体の内部に存在する点の数を確認し、1つの立方体内に複数の点が存在する場合にはそれらの平均座標に位置する1つの点に集約する(ステップS10)。これは、部分三次元ポリゴンモデルから全体三次元ポリゴンモデルを作成したときに、隣接する部分三次元ポリゴンモデルの結合領域に存在する重複点を削除する処理である。こうした重複点を削除することにより、ポリゴンが重複して存在する等の見た目の違和感を解消することができ、また必要以上に点数が多くなって処理の負荷が増大することを避けることができる。   Furthermore, the overlapping point arrangement unit 30 arranges grids at predetermined intervals in each of the three axial directions of the space where the entire three-dimensional polygon model is located, and divides the space into small cubes. This predetermined interval is appropriately determined according to the number of points constituting the entire three-dimensional polygon model. Then, the number of points existing in each cube is confirmed, and when there are a plurality of points in one cube, they are collected into one point located at their average coordinates (step S10). This is a process of deleting an overlapping point existing in a combined region of adjacent partial 3D polygon models when an entire 3D polygon model is created from the partial 3D polygon model. By deleting such overlapping points, it is possible to eliminate an uncomfortable appearance such as the presence of overlapping polygons, and it is possible to avoid an increase in processing load due to an unnecessarily large number of points.

次に、全体三次元ポリゴンモデル補正部31が、上記ステップにより作成された全体三次元ポリゴンモデルに穴がないかを確認し、穴が存在する場合にはそれを埋める処理を行う(ステップS11)。この処理は、穴の近傍に位置する点から、穴の内部に適宜の推測点を生成し、生成した点を用いて新たなポリゴンを作成することにより行われる。こうした穴埋め処理は、例えばフォトショップ(アドビ システムズ インコーポレイテッドの登録商標、製品名)の一機能として従来知られている。ただし、フォトショップ等のソフトウェアによりこの穴埋め処理を行うと、穴を埋めるために多数の点が新しく生成され、以降の処理の負荷が増大する場合がある。こうした場合には、上述したポリゴンリダクションにより適宜に点数を減らし、以降の処理における負荷を軽減することが好ましい。また、フォトショップ等のソフトウェアではこの穴埋め処理においてテクスチャ情報が削除されることがある。このような場合には、以降の適宜の段階で、再度、上述したテクスチャ貼り付け処理を行う必要がある(ステップS12)。   Next, the overall 3D polygon model correcting unit 31 checks whether or not there is a hole in the overall 3D polygon model created in the above step, and performs processing to fill in the hole if it exists (step S11). . This process is performed by generating an appropriate estimated point inside the hole from a point located in the vicinity of the hole, and creating a new polygon using the generated point. Such a filling process is conventionally known as a function of, for example, Photoshop (registered trademark of Adobe Systems Incorporated, product name). However, when this hole filling process is performed by software such as Photoshop, a large number of points are newly generated to fill the hole, and the load of the subsequent processing may increase. In such a case, it is preferable to reduce the number of points as appropriate by the polygon reduction described above to reduce the load in the subsequent processing. In software such as Photoshop, texture information may be deleted in the hole filling process. In such a case, it is necessary to perform the above-described texture pasting process again at an appropriate stage thereafter (step S12).

以上の各工程により、全体三次元ポリゴンモデルが作成される。
上述のとおり、本実施例の三次元ポリゴンモデル作成方法、作成システム、あるいは作成装置では、複数台の距離画像センサのそれぞれに対応する部分三次元ポリゴンモデルを作成し、座標変換により部分三次元ポリゴンモデルを1つの共通空間座標系に対応した変換部分三次元ポリゴンモデルに変換し、それらを組み合わせて全体三次元ポリゴンモデルに統合する。つまり、座標変換によって自動的に部分三次元ポリゴンモデルを統合して全体三次元ポリゴンモデルを作成することができる。従って、従来のようにオペレータが部分三次元ポリゴンモデルを回転・移動したり端部のデータを組み合わせたりする必要がなく、簡便に全体三次元ポリゴンモデルからなる三次元モデルを作成することができる。
Through the above steps, the entire three-dimensional polygon model is created.
As described above, in the 3D polygon model creation method, creation system, or creation apparatus of this embodiment, a partial 3D polygon model corresponding to each of a plurality of distance image sensors is created, and the partial 3D polygon is converted by coordinate conversion. The model is converted into a converted partial 3D polygon model corresponding to one common space coordinate system, and these are combined and integrated into the entire 3D polygon model. That is, the partial three-dimensional polygon model can be automatically integrated by coordinate conversion to create an entire three-dimensional polygon model. Therefore, there is no need for the operator to rotate and move the partial 3D polygon model or to combine the edge data as in the prior art, and a 3D model consisting of the entire 3D polygon model can be easily created.

また、全体三次元ポリゴンモデルから、所定数以下のポリゴンが連なって構成されたポリゴン集合体を機械的に削除する。そのため、従来のようにオペレータが距離情報の誤差を含む点からなるポリゴンを個別に確認して手作業で削除する必要がなく、簡便に全体三次元ポリゴンモデルを作成することができる。   In addition, a polygon aggregate composed of a predetermined number or less of polygons is mechanically deleted from the entire three-dimensional polygon model. For this reason, it is not necessary for the operator to individually check polygons including points including errors in distance information and delete them manually, as in the prior art, and an entire three-dimensional polygon model can be created easily.

次に、上記全体三次元ポリゴンモデルに動きを与えて三次元モデルを作成する手順を説明する。
まず、ボーンデータ生成部32が、ステップS2において生成され記憶部21に保存されたボーンデータを読み出し、全体三次元ポリゴンモデルに重畳する。これにより、静止三次元モデルが得られる。そして、ウエイト設定部33が、全体三次元ポリゴンモデルの各点から骨までの距離に応じたウエイト値を設定する(ステップS13)。このウエイト値は、骨の動きが各点の動きに対してどの程度影響を及ぼすかを表す値であり、骨までの距離が近いほど大きな値に、遠くなるにつれて小さな値に設定される。本実施例では、距離画像センサとしてKinectを用いたため、被写体の撮影時にボーンデータを取得し記憶部21に保存しているが、ボーンデータを生成する機能を有しない距離画像センサを用いる場合には、ボーンデータ生成部32が、全体三次元ポリゴンモデルの輪郭を人間の種々のポーズに対応するボーンデータが保存された適宜のデータベースと照合することにより、新たにボーンデータを生成することができる。
Next, a procedure for creating a three-dimensional model by giving a motion to the entire three-dimensional polygon model will be described.
First, the bone data generation unit 32 reads out the bone data generated in step S2 and stored in the storage unit 21, and superimposes it on the entire three-dimensional polygon model. Thereby, a stationary three-dimensional model is obtained. Then, the weight setting unit 33 sets a weight value corresponding to the distance from each point of the overall three-dimensional polygon model to the bone (step S13). This weight value is a value representing how much the movement of the bone affects the movement of each point, and is set to a larger value as the distance to the bone is shorter, and a smaller value as the distance is increased. In this embodiment, since Kinect is used as the distance image sensor, bone data is acquired and stored in the storage unit 21 when the subject is photographed. However, when a distance image sensor that does not have a function of generating bone data is used. The bone data generation unit 32 can generate new bone data by collating the outline of the entire three-dimensional polygon model with an appropriate database in which bone data corresponding to various human poses is stored.

次に、モーションデータ重畳部34は、記憶部21に予め保存されているモーションデータを全て読み出し、その名称や動作例を画面表示して使用者に選択を促す。モーションデータとは、ボーンデータに含まれている骨の動きを規定したデータであり、これにより種々の動作を表現することができる。使用者が1つのモーションデータを選択すると、モーションデータ重畳部34は該モーションデータを上記静止三次元モデルに重畳する(ステップS14)。モーションデータ自体は骨を動かすデータであるが、骨を動かすことに伴って、前述のウエイト値に応じた大きさで静止三次元モデルの各点が移動するため、その結果、全体三次元ポリゴンモデルが所定の動作を行っているように画面上に表示することができる。   Next, the motion data superimposing unit 34 reads all the motion data stored in the storage unit 21 in advance, displays the name and operation example on the screen, and prompts the user to select. The motion data is data that defines the motion of bones included in the bone data, and various motions can be expressed thereby. When the user selects one motion data, the motion data superimposing unit 34 superimposes the motion data on the stationary three-dimensional model (step S14). The motion data itself is data that moves the bone, but as the bone is moved, each point of the stationary 3D model moves with a size corresponding to the above-mentioned weight value. As a result, the entire 3D polygon model Can be displayed on the screen as if performing a predetermined operation.

次に、このようにして作成される三次元モデルの利用例を説明する。
この利用例は、イベントの主催者が予め用意した、三次元コンピュータグラフィック(3DCG)で作成された仮想現実(VR:Virtual Reality)空間において参加者同士が自らの三次元モデルを介して交流することを可能にするものである。
Next, an example of using the three-dimensional model created in this way will be described.
In this example, participants interact with each other through their own 3D model in a virtual reality (VR) space created by 3D computer graphics (3DCG) prepared in advance by the event organizer. Is possible.

まず、イベントの参加者は、それぞれ上記実施例の方法により自らの三次元モデルを作成する。そして、イベントの主催者が用意した仮想現実空間にそのデータを転送する。これにより仮想現実空間に各参加者の三次元モデルが取り込まれる。各参加者は、自身の身体動作を入力する入力装置、及びヘッドマウントディスプレイ(HMD)を装着する。身体動作の入力装置には、例えばトレッドミル歩行デバイスがある。これは、デバイスの各所に取り付けられた振動センサにより参加者の身体の各部の動きを検出し、これを統合してモーションデータを生成するものである。あるいは、上述したKinect等のモーションセンサを用いて参加者の身体動作を検出(骨格ジェスチャ検出)することによりモーションデータを生成してもよい。また、ヘッドマウントティスプレイは、仮想現実空間が表示される画面、該仮想現実空間の音声が流れるヘッドフォン、及び参加者の音声を認識するマイクを備えている。   First, event participants create their own three-dimensional models by the method of the above embodiment. Then, the data is transferred to the virtual reality space prepared by the event organizer. Thereby, the three-dimensional model of each participant is taken into the virtual reality space. Each participant wears an input device for inputting his / her body movement and a head mounted display (HMD). An example of an input device for body movement is a treadmill walking device. In this method, motion of each part of the participant's body is detected by vibration sensors attached to various parts of the device, and these are integrated to generate motion data. Or you may produce | generate motion data by detecting a participant's physical motion (skeletal gesture detection) using motion sensors, such as Kinect mentioned above. The head mounted display includes a screen on which a virtual reality space is displayed, headphones through which sound in the virtual reality space flows, and a microphone that recognizes the voice of the participant.

参加者がヘッドマウントディスプレイから取得した仮想現実空間の視覚情報や聴覚情報に反応して身体を動かすと、モーションデータが仮想現実空間内の三次元モデルの動きとなって反映される。そして、仮想現実空間内に取り込まれた三次元モデル同士が所定の距離まで近づくと相互の間で会話が可能となり参加者間の交流が実現する。なお、こうしたイベントは、必ずしも特別にイベント会場を設けて行う必要はなく、ネットワークを介して接続された装置を介して各参加者が仮想現実空間内での交流や疑似体験を楽しむものとすることができる。   When a participant moves his / her body in response to visual information or auditory information in the virtual reality space acquired from the head-mounted display, the motion data is reflected as the movement of the three-dimensional model in the virtual reality space. Then, when the three-dimensional models captured in the virtual reality space approach each other to a predetermined distance, a conversation is possible between them, and exchange between participants is realized. These events do not necessarily have to be held in a special event venue, and each participant can enjoy exchanges and simulated experiences in a virtual reality space via a device connected via a network. .

次に、実施例1の三次元モデル作成システム1を用いた三次元モデルの作成により得られた知見に基づき、該作成システム1を改良した実施例2の三次元モデル作成システム100について説明する。実施例2では、距離画像センサの台数及び配置と、座標変換行列の取得に係る処理が実施例1と異なるため、これらを中心に説明する。   Next, the 3D model creation system 100 of Example 2 in which the creation system 1 is improved based on the knowledge obtained by creating the 3D model using the 3D model creation system 1 of Example 1 will be described. In the second embodiment, the number and arrangement of the distance image sensors and the processing related to the acquisition of the coordinate transformation matrix are different from those in the first embodiment.

図3は、実施例2の三次元モデルの作成システム100(以下、単に「作成システム」とも呼ぶ。)の概略構成図である。図1と共通する構成要素については下二桁が共通の符号を付し、適宜説明を省略する。なお、被写体の撮影(ステップS1)からモーションデータの重畳(ステップS14)の各ステップにおける処理は実施例1(図2)と同様であるため説明を省略する。   FIG. 3 is a schematic configuration diagram of a 3D model creation system 100 (hereinafter also simply referred to as “creation system”) according to the second embodiment. Constituent elements common to those in FIG. 1 are denoted by common reference numerals in the last two digits, and description thereof will be omitted as appropriate. Note that the processing in each step from photographing the subject (step S1) to superimposing motion data (step S14) is the same as that in the first embodiment (FIG. 2), and thus the description thereof is omitted.

実施例1の作成システム1では被写体位置Pを取り囲むように4台の距離画像センサ11〜14を用いたが、実施例2の作成システム100では12台の距離画像センサ1111〜1112を用いる。距離画像センサ1111〜1122は2台1組で、撮像空間110内で被写体位置Pを取り囲む6箇所に配置する。距離画像センサ1111、1112は被写体位置Pの正面に、距離画像センサ1117、1118は被写体位置Pの背面に配置する。2台1組の距離画像センサのうち、図中の符号が奇数のもの(1111等)は上方から被写体を捉えるように、図中の符号が偶数のもの(1112等)は下方から被写体を捉えるように、支柱160の上下に取り付けられる(図3の右上図参照)。実施例2の距離画像センサ1111〜1122は実施例1と同じくKinectであるが、撮像データと深度データを取得可能なものであれば他のセンサを用いてもよい。   In the creation system 1 of the first embodiment, four distance image sensors 11 to 14 are used so as to surround the subject position P, but in the creation system 100 of the second embodiment, twelve distance image sensors 1111 to 1112 are used. The distance image sensors 1111 to 1122 are a set of two, and are arranged at six locations surrounding the subject position P in the imaging space 110. The distance image sensors 1111 and 1112 are arranged in front of the subject position P, and the distance image sensors 1117 and 1118 are arranged in the back of the subject position P. Among a set of two distance image sensors, an odd number in the figure (1111 etc.) catches the subject from above, and an even number in the figure (1112 etc.) catches the subject from below. Thus, it attaches up and down the support | pillar 160 (refer the upper right figure of FIG. 3). The distance image sensors 1111 to 1122 of the second embodiment are Kinect as in the first embodiment, but other sensors may be used as long as they can acquire imaging data and depth data.

実施例2では、距離画像センサ1111(被写体正面上方に位置する距離画像センサ)及び1118(被写体背面下方に位置する距離画像センサ)により被写体のボーンデータを取得する。また、距離画像センサ1111〜1122により被写体の撮像データと深度データを取得する。実施例2では、実施例1よりも多くの距離画像センサ1111〜1122を用い、それらを実施例1の距離画像センサ11〜14よりも被写体位置Pに近づけて配置し、撮像データと深度データを取得する。これにより、各距離画像センサが捉える被写体の範囲を実施例1よりも狭くして、撮像データの解像度(位置分解能)を高めている。また、実施例1よりも各距離画像センサ1111〜1122から被写体までの距離が短くなるため、深度データの精度も向上する。さらに、撮像空間110を実施例1よりもコンパクトにすることができる。   In the second embodiment, the bone data of the subject is acquired by the distance image sensor 1111 (distance image sensor located above the subject front) and 1118 (distance image sensor located below the subject back). In addition, the imaging data and depth data of the subject are acquired by the distance image sensors 1111 to 1122. In the second embodiment, more distance image sensors 1111 to 1122 are used than in the first embodiment, and they are arranged closer to the subject position P than the distance image sensors 11 to 14 in the first embodiment. get. As a result, the range of the subject captured by each distance image sensor is narrower than that of the first embodiment, and the resolution (positional resolution) of the imaging data is increased. Further, since the distance from each of the distance image sensors 1111 to 1122 to the subject is shorter than that in the first embodiment, the accuracy of the depth data is also improved. Furthermore, the imaging space 110 can be made more compact than in the first embodiment.

また、実施例1では被写体が両手を水平に広げ、足を肩幅程度に広げて立つ姿勢(Tポーズと呼ばれる姿勢)で撮像データ及び深度データを取得したが、実施例2では、被写体が両手を斜め下におろした姿勢(Aポーズと呼ばれる姿勢)で撮像データ及び深度データを取得する。距離画像センサの台数を増やすとともに被写体の姿勢をAポーズに変更することで、実施例1よりも死角を減らし、また深度データの精度を高めている。   In the first embodiment, the image data and the depth data are acquired in a posture where the subject stands with both hands horizontally spread and the legs widened to the shoulder width (posture called T-pose). In the second embodiment, the subject holds both hands. Imaging data and depth data are acquired in a posture that is inclined downward (a posture called an A pose). By increasing the number of distance image sensors and changing the posture of the subject to the A pose, the blind spot is reduced more than in the first embodiment, and the accuracy of the depth data is increased.

作成装置120は、記憶部121のほかに、データ受付部122、点座標生成部123、部分三次元ポリゴンモデル作成部124、ポリゴンリダクション部125、背面ポリゴン削除部126、テクスチャ設定部127、全体三次元ポリゴンモデル作成部128、ノイズ削除部129、重複点整理部130、全体三次元ポリゴンモデル補正部131、ボーンデータ生成部132、ウエイト設定部133、及びモーションデータ重畳部134を機能ブロックとして備えている。作成装置120の実体は一般的なパーソナルコンピュータであり、入力部140、及び表示部150が接続されている。また、実施例1と同様に、上記各機能ブロック122〜134は、コンピュータにインストールされた三次元モデル作成用プログラムをCPUに実行させることにより具現化することができる。記憶部121には、次に説明する手順により作成される第1座標変換行列及び第2座標変換行列と、モーションデータが保存されている。   In addition to the storage unit 121, the creation device 120 includes a data reception unit 122, a point coordinate generation unit 123, a partial 3D polygon model creation unit 124, a polygon reduction unit 125, a backside polygon deletion unit 126, a texture setting unit 127, an overall tertiary. An original polygon model creating unit 128, a noise deleting unit 129, an overlapping point organizing unit 130, an overall 3D polygon model correcting unit 131, a bone data generating unit 132, a weight setting unit 133, and a motion data superimposing unit 134 are provided as functional blocks. Yes. The entity of the creation device 120 is a general personal computer, to which an input unit 140 and a display unit 150 are connected. Similarly to the first embodiment, each of the functional blocks 122 to 134 can be realized by causing a CPU to execute a three-dimensional model creation program installed in a computer. The storage unit 121 stores a first coordinate transformation matrix, a second coordinate transformation matrix, and motion data that are created by the procedure described below.

第1座標変換行列及び第2座標変換行列は以下のようにして作成する。
被写体の三次元モデルを作成するに先立ち、12台の距離画像センサ1111〜1122の位置と視野を固定する。実施例1では複数のボールを被写体として用いたが、実施例2では表裏面に異なるARマーカをプリントした薄板200を用いる。例えば、図4(a)に示すARマーカを表面に、図4(b)に示すARマーカを裏面に、それらの四隅A〜Dの位置が表裏面で一致するように貼り付けたものを用いる。
The first coordinate transformation matrix and the second coordinate transformation matrix are created as follows.
Prior to creating the three-dimensional model of the subject, the positions and fields of view of the twelve distance image sensors 1111 to 1122 are fixed. In the first embodiment, a plurality of balls are used as subjects, but in the second embodiment, a thin plate 200 having different AR markers printed on the front and back surfaces is used. For example, the AR marker shown in FIG. 4A is attached to the front surface, the AR marker shown in FIG. 4B is attached to the back surface, and the four corners A to D are attached so that the positions of the front and back surfaces coincide with each other. .

使用者は、この薄板200を立てた状態でその下方(ARマーカが貼り付けられていない位置)を持ち撮像空間110内を移動する。その間、12台の距離画像センサ1111〜1122に、所定の時間間隔(例えば5秒ごと)でARマーカの四隅を自動検知させる。例えば、ある時点では距離画像センサ1111〜1116が薄板200の表面(図4(a)のARマーカ)を捉え、一方、距離画像センサ1117〜1122が薄板200の裏面(図4(b)のARマーカ)を捉えることになる。所定回数(例えば150回)の自動検知を終えると、各時点で取得したARマーカの四隅の位置A〜Dに基づきARマーカの外枠の形状(外形)を確認する。ARマーカの四隅の位置が正しく取得されていれば、この外形は矩形(正方形)であるが、Kinectが発する赤外線が別のKinectが発する赤外線と干渉して深度データに誤差が生じたり、画像処理の精度が悪かったりすることによりARマーカの外形に歪みが生じる。そこで、ARマーカの外形の角部の角度が90度からずれているデータ(例えば±5度以上の歪みが生じているデータ)を削除し、正しい位置情報が得られているもののみを第1座標変換行列の作成に使用する。そして、12台の距離画像センサ1111〜1122のうちの複数台が同じ時点に取得したARマーカの四隅A〜Dの空間座標を照合することにより、12台の距離画像センサ1111〜1122の空間座標系を共通の空間座標系に変換する(例えば距離画像センサ1112〜1122の空間座標系を距離画像センサ1111の空間座標系に変換する)第1座標変換行列を得る。   The user moves in the imaging space 110 while holding the thin plate 200 in the upright position (position where the AR marker is not attached). In the meantime, the twelve distance image sensors 1111 to 1122 are caused to automatically detect the four corners of the AR marker at predetermined time intervals (for example, every 5 seconds). For example, at a certain time, the distance image sensors 1111 to 1116 capture the surface of the thin plate 200 (AR marker in FIG. 4A), while the distance image sensors 1117 to 1122 are on the back surface of the thin plate 200 (AR in FIG. 4B). Marker). When automatic detection is completed a predetermined number of times (for example, 150 times), the shape (outer shape) of the outer frame of the AR marker is confirmed based on the positions A to D of the four corners of the AR marker acquired at each time point. If the positions of the four corners of the AR marker are acquired correctly, this outline is a rectangle (square), but the infrared rays emitted by Kinect interfere with the infrared rays emitted by another Kinect, resulting in errors in depth data, and image processing. As a result, the outer shape of the AR marker is distorted. Therefore, data in which the angle of the corner of the outer shape of the AR marker deviates from 90 degrees (for example, data in which a distortion of ± 5 degrees or more is generated) is deleted, and only data for which correct position information is obtained is the first. Used to create a coordinate transformation matrix. Then, by collating the spatial coordinates of the four corners A to D of the AR marker acquired by a plurality of the 12 distance image sensors 1111 to 1122 at the same time, the spatial coordinates of the 12 distance image sensors 1111 to 1122 A first coordinate transformation matrix is obtained for transforming the system to a common spatial coordinate system (for example, transforming the spatial coordinate system of the distance image sensors 1112 to 1122 to the spatial coordinate system of the distance image sensor 1111).

実施例1で説明したように、この三次元モデル作成システムでは、各距離画像センサで被写体のポイントクラウドを取得し、次いでそのポイントクラウドから部分三次元ポリゴンモデルを作成し、その後に座標変換行列を用いて部分三次元ポリゴンモデルの空間座標系を共通の空間座標系に変換して全体三次元ポリゴンモデルを作成する。従って、部分三次元ポリゴンモデルの空間座標系の変換(全体三次元ポリゴンモデルの作成)には、ポリゴンモデルの空間座標系で作成された座標変換行列を用いる必要がある。   As described in the first embodiment, in this three-dimensional model creation system, a point cloud of a subject is acquired by each distance image sensor, then a partial three-dimensional polygon model is created from the point cloud, and then a coordinate transformation matrix is obtained. By using this, the spatial coordinate system of the partial 3D polygon model is converted into a common spatial coordinate system to create an entire 3D polygon model. Therefore, it is necessary to use the coordinate transformation matrix created in the spatial coordinate system of the polygon model for the transformation of the spatial coordinate system of the partial 3D polygon model (creation of the entire 3D polygon model).

しかし、本発明者が実施例1の作成システム1を用いて確認したところ、距離画像センサとしてKinectを用いた場合、生データであるポイントクラウドと、そのポイントクラウドから生成されるポリゴンデータでは座標軸にずれがあることが分かった。そこで、この座標軸のずれを補正するために、実施例2では第2座標変換行列を用いる。   However, when the present inventor confirmed using the creation system 1 of the first embodiment, when Kinect is used as the distance image sensor, the point cloud as raw data and the polygon data generated from the point cloud are coordinate axes. I found that there was a gap. Therefore, in order to correct this coordinate axis shift, the second coordinate transformation matrix is used in the second embodiment.

距離画像センサ1111〜1122について、1台ずつ上記ARマーカを撮影してポイントクラウドを取得し、そのポイントクラウドからポリゴンデータを作成する。そして、ポイントクラウド上でのARマーカの四隅A〜Dの空間座標と、ポリゴンデータにおけるARマーカの四隅A〜Dの空間座標を照合することにより、ポイントクラウドの座標をポリゴンデータの座標に変換する第2座標変換行列を作成する。この第2座標変換行列は距離画像センサ1111〜1122のそれぞれについて作成し、記憶部121に保存しておく。なお、第2座標変換行列を作成する際、実際にデータを取得する距離画像センサは1台のみであるが、他の距離画像センサも動作させておくことが好ましい。被写体のデータを取得する際には全ての距離画像センサを動作させるため、それらから発せられる赤外線の一部が干渉することは避けられない。従って、これと同じ状況下で取得したデータから座標変換行列を作成することにより、赤外線の一部が干渉した状況が加味された、精度の高い第2座標変換行列を得ることができる。   For the distance image sensors 1111 to 1122, the AR marker is photographed one by one to acquire a point cloud, and polygon data is created from the point cloud. Then, by collating the spatial coordinates of the four corners A to D of the AR marker on the point cloud with the spatial coordinates of the four corners A to D of the AR marker in the polygon data, the coordinates of the point cloud are converted into the coordinates of the polygon data. A second coordinate transformation matrix is created. This second coordinate transformation matrix is created for each of the distance image sensors 1111 to 1122 and stored in the storage unit 121. Note that when creating the second coordinate transformation matrix, only one distance image sensor actually acquires data, but it is preferable to operate other distance image sensors. Since all the distance image sensors are operated when acquiring subject data, it is inevitable that a part of infrared rays emitted from the distance image sensors interfere with each other. Therefore, by creating a coordinate transformation matrix from data obtained under the same circumstances as this, a highly accurate second coordinate transformation matrix can be obtained that takes into account the situation where a part of infrared rays interfered.

実施例1のステップS8では、距離画像センサ11〜14に対応する座標変換行列を記憶部21から読み出し、各距離画像センサ11〜14で作成された部分三次元ポリゴンモデルを構成する各点の空間座標を共通の空間座標系における空間座標に変換することにより全体三次元ポリゴンモデルを作成した。実施例2では、ポイントクラウドの空間座標系で作成された第1座標変換行列に、ポイントクラウドの座標軸をポリゴンデータの座標軸に変換する第2座標変換行列を演算してポリゴンデータの空間座標系のものに変換する。これにより、Kinectのように、ポイントクラウドのデータの座標軸とポリゴンデータの座標軸にずれがあるような距離画像センサを用いる場合でも、そのずれを補正することができる。従って、より正確に部分三次元ポリゴンモデルの空間座標系を共通の空間座標系に変換し、ずれのない全体三次元ポリゴンモデルを作成することができる。   In step S8 of the first embodiment, the coordinate transformation matrix corresponding to the distance image sensors 11 to 14 is read from the storage unit 21, and the space of each point constituting the partial 3D polygon model created by each distance image sensor 11 to 14 is used. An overall three-dimensional polygon model was created by converting the coordinates into spatial coordinates in a common spatial coordinate system. In the second embodiment, the second coordinate transformation matrix for transforming the coordinate axis of the point cloud into the coordinate axis of the polygon data is calculated on the first coordinate transformation matrix created in the spatial coordinate system of the point cloud to calculate the spatial coordinate system of the polygon data. Convert to stuff. Thus, even when using a distance image sensor such as Kinect in which there is a deviation between the coordinate axes of the point cloud data and the polygon data, the deviation can be corrected. Accordingly, the spatial coordinate system of the partial three-dimensional polygon model can be more accurately converted to a common spatial coordinate system, and an entire three-dimensional polygon model without deviation can be created.

上記2つの実施例はいずれも一例であって、本発明の趣旨に沿って適宜に変更することができる。
上記実施例では、三次元モデル作成システム1において被写体をその場で撮影し、撮像データ及び深度データを取得して三次元モデル作成装置20に送信する構成としたが、予め取得された撮像データ及び深度データを、該データを取得した距離画像センサの配置データとともに三次元モデル作成装置20に入力し、上記同様の各工程により三次元モデルを作成することもできる。
また、各独立請求項に記載の構成が本発明における必須の構成要件である。上記実施例において説明した各工程及び各構成要素は一例であり、必ずしも本発明を具現化するために上述した全ての工程及び構成要素を備える必要はない。
さらに、必ずしも1台のコンピュータで上記三次元モデル作成装置20を構成する必要はない。例えば、ネットワークを介して接続された複数台のコンピュータに上記三次元モデル作成装置20の機能ブロックを分散配置し、これらを協働させるようにしてもよい。
The above two embodiments are only examples, and can be appropriately changed in accordance with the gist of the present invention.
In the above embodiment, the 3D model creation system 1 captures the subject on the spot, acquires the imaging data and the depth data, and transmits them to the 3D model creation apparatus 20. It is also possible to input the depth data together with the arrangement data of the distance image sensor that has acquired the data to the three-dimensional model creating apparatus 20 and create a three-dimensional model by the same steps as described above.
The configuration described in each independent claim is an essential component in the present invention. Each step and each component described in the above embodiment are examples, and it is not always necessary to include all the steps and components described above in order to embody the present invention.
Furthermore, it is not always necessary to configure the three-dimensional model creation apparatus 20 with a single computer. For example, the functional blocks of the three-dimensional model creation apparatus 20 may be distributed and arranged in a plurality of computers connected via a network so as to cooperate with each other.

上記実施例の三次元モデル作成システム1は、例えばプリクラ(株式会社セガゲームス社の登録商標)のように、ゲームセンターや商業施設などに配置して用いることができる。この場合には、例えば利用者から所定の利用料金が投入されることにより三次元モデル作成指示が与えられ、上述の各工程を経て全体三次元ポリゴンモデル、ボーンデータ、及びモーションデータを書き込んだ記録媒体(例えばDVD−ROM)を利用者に提供したり、利用者のスマートフォンやパソコン等の可搬型端末にこれらのデータを転送したりするように構成することができる。これらの可搬型端末に、三次元モデルのデータを読み込み、利用者が自らの三次元モデルを編集してアバターを作成するアプリケーション、該三次元モデルからなる主人公を操作して他の利用者と対戦するネットワーク通信ゲームのアプリケーション、あるいは該三次元モデルに利用者が選んだ服を着せ替えてネットショッピングを楽しむアプリケーションなど、様々なアプリケーションのソフトウェアをインストールしておくことにより、利用者自身の三次元モデルを多様な形態で楽しむことができる。   The three-dimensional model creation system 1 of the above embodiment can be used by being placed in a game center, a commercial facility, or the like, for example, like a photo booth (registered trademark of Sega Games Inc.). In this case, for example, when a predetermined usage fee is input from the user, a 3D model creation instruction is given, and the entire 3D polygon model, bone data, and motion data are written through the above-described steps. A medium (for example, a DVD-ROM) can be provided to the user, or the data can be transferred to a portable terminal such as a user's smartphone or personal computer. An application that reads 3D model data into these portable terminals and the user edits their 3D model to create an avatar, and controls the main character consisting of the 3D model to play against other users By installing software for various applications, such as a network communication game application or an application for enjoying online shopping by changing clothes selected by the user to the 3D model, the user's own 3D model Can be enjoyed in various forms.

1、100…三次元モデル作成システム
10、110…撮像空間
11〜14、1111〜1122…距離画像センサ
P…被写体位置
16、116…撮影制御部
20、120…三次元モデル作成装置
21、121…記憶部
22、122…データ受付部
23、123…点座標生成部
24、124…部分三次元ポリゴンモデル作成部
25、125…ポリゴンリダクション部
26、126…背面ポリゴン削除部
27、127…テクスチャ設定部
28、128…全体三次元ポリゴンモデル作成部
29、129…ノイズ削除部
30、130…重複点整理部
31、131…全体三次元ポリゴンモデル補正部
32、132…ボーンデータ生成部
33、133…ウエイト設定部
34、134…モーションデータ重畳部
35、135…モーションデータ重畳部
40、140…入力部
50、150…表示部
160…支柱
200…薄板
DESCRIPTION OF SYMBOLS 1,100 ... Three-dimensional model creation system 10, 110 ... Imaging space 11-14, 1111-1122 ... Distance image sensor P ... Subject position 16, 116 ... Shooting control part 20, 120 ... Three-dimensional model creation apparatus 21, 121 ... Storage unit 22, 122 ... Data reception unit 23, 123 ... Point coordinate generation unit 24, 124 ... Partial three-dimensional polygon model creation unit 25, 125 ... Polygon reduction unit 26, 126 ... Back polygon deletion unit 27, 127 ... Texture setting unit 28, 128 ... Overall 3D polygon model creation unit 29, 129 ... Noise deletion unit 30, 130 ... Duplicate point arrangement unit 31, 131 ... Overall 3D polygon model correction unit 32, 132 ... Bone data generation unit 33, 133 ... Weight Setting unit 34, 134 ... Motion data superimposing unit 35, 135 ... Motion data Data superimposing section 40, 140 ... input unit 50, 150 ... display unit 160 ... struts 200 ... sheet

Claims (11)

a) 被写体を取り囲むように配置した4台以上の距離画像センサのそれぞれにより、被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データを取得する工程と、
b) 前記4台以上の距離画像センサのそれぞれについて、前記撮像データと前記深度データから複数の点の空間座標を生成する工程と、
c) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する工程と、
d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する工程と、
e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除する工程と
を含むことを特徴とする三次元モデルの作成方法。
a) Image data that is two-dimensional image data of a subject and depth data representing a two-dimensional distribution of the distance from the distance image sensor to the subject by each of four or more distance image sensors arranged so as to surround the subject. A process of obtaining
b) generating spatial coordinates of a plurality of points from the imaging data and the depth data for each of the four or more range image sensors;
c) A partial three-dimensional combination of a plurality of polygons created by connecting a predetermined number of points located on the same plane among the plurality of points for each of the four or more distance image sensors. Creating a polygon model;
d) Spatial coordinates corresponding to one common spatial coordinate system obtained by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model based on the positional relationship between the corresponding distance image sensor and the subject. Converting the plurality of partial three-dimensional polygon models into one and creating a whole three-dimensional polygon model;
e) a method of creating a three-dimensional model, comprising: a step of deleting a polygon aggregate formed by connecting a predetermined number or less of polygons in the whole three-dimensional polygon model.
前記4台以上の距離画像センサの一部が前記被写体を上方から捉えるように配置され、前記4台以上の距離画像センサの別の一部が前記被写体を下方から捉えるように配置されていることを特徴とする請求項1に記載の三次元モデルの作成方法。   A part of the four or more distance image sensors is arranged so as to catch the subject from above, and another part of the four or more distance image sensors is arranged so as to catch the subject from below. The method for creating a three-dimensional model according to claim 1. f) 前記部分三次元ポリゴンモデルのそれぞれにおいて、前記複数のポリゴンのうち、前記距離画像センサから該ポリゴンの中心点に向かう視線ベクトルと、当該ポリゴンの法線ベクトルがなす角が90度以下であるポリゴンを削除する工程
を含むことを特徴とする請求項1又は2に記載の三次元モデルの作成方法。
f) In each of the partial three-dimensional polygon models, the angle formed by the line-of-sight vector from the distance image sensor to the center point of the polygon and the normal vector of the polygon among the plurality of polygons is 90 degrees or less. The method for creating a three-dimensional model according to claim 1, further comprising a step of deleting a polygon.
g) 前記全体三次元ポリゴンモデルに、予め用意された、直線で表される複数の骨と、点で表されそれぞれが前記骨を連結する複数の関節とを含む骨格データを組み合わせた静止三次元モデルを作成する工程と、
h) 前記静止三次元モデルの各点に、該点と前記骨の距離に応じたウエイト値を設定する工程と、
i) 所定の動作を前記骨と前記関節の動きで表現する動作データを前記静止三次元モデルのデータに重畳し、該動作データと前記ウエイト値に基づいて前記点を移動させる工程と、
を含むことを特徴とする請求項1〜3のいずれかに記載の三次元モデルの作成方法。
g) Static 3D combining the entire 3D polygon model with skeleton data prepared in advance and including a plurality of bones represented by straight lines and a plurality of joints represented by points and each connecting the bones Creating a model;
h) setting a weight value according to the distance between the point and the bone for each point of the stationary three-dimensional model;
i) superimposing motion data expressing a predetermined motion by motion of the bone and the joint on the data of the stationary three-dimensional model, and moving the point based on the motion data and the weight value;
The method for creating a three-dimensional model according to claim 1, wherein:
前記部分三次元ポリゴンモデル及び/又は前記全体三次元ポリゴンモデルのポリゴン数を減少させるポリゴンリダクションを行う工程を含むことを特徴とする請求項1〜4のいずれかに記載の三次元モデルの作成方法。   The method of creating a three-dimensional model according to any one of claims 1 to 4, further comprising a step of performing polygon reduction to reduce the number of polygons of the partial three-dimensional polygon model and / or the whole three-dimensional polygon model. . 前記ポリゴンリダクションが、全てのポリゴンについて当該ポリゴンを代表する点を生成し、該生成した点を用いて新たにポリゴンを生成する処理であることを特徴とする請求項5に記載の三次元モデルの作成方法。   6. The three-dimensional model according to claim 5, wherein the polygon reduction is a process of generating a point representing the polygon for all the polygons and generating a new polygon using the generated points. How to make. a) 被写体を取り囲むように配置された4台以上の距離画像センサのそれぞれにより取得された、被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データの入力を受け付けるデータ受付部と、
b) 前記撮像データと前記深度データの各組について複数の点の空間座標を生成する点座標生成部と、
c) それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
を備えることを特徴とする三次元モデル作成装置。
a) Imaging data that is two-dimensional image data of a subject acquired by each of four or more distance image sensors arranged so as to surround the subject, and a two-dimensional distribution of distances from the distance image sensor to the subject A data receiving unit for receiving input of depth data representing
b) a point coordinate generation unit that generates spatial coordinates of a plurality of points for each set of the imaging data and the depth data;
c) A partial 3D polygon model creation unit for creating a partial 3D polygon model made up of a combination of a plurality of polygons, each created by connecting a predetermined number of points located on the same plane among the plurality of points When,
d) Spatial coordinates corresponding to one common spatial coordinate system obtained by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model based on the positional relationship between the corresponding distance image sensor and the subject. An overall 3D polygon model creation unit that creates an overall 3D polygon model in which a plurality of the partial 3D polygon models are integrated into one,
e) In the overall three-dimensional polygon model, a polygon aggregate deletion unit that deletes a polygon aggregate composed of a predetermined number of polygons or less, and
A three-dimensional model creation device comprising:
ネットワークを介して相互に接続された、前記距離画像センサと同数のコンピュータによって具現化されていることを特徴とする請求項7に記載の三次元モデル作成装置。   The three-dimensional model creation apparatus according to claim 7, wherein the three-dimensional model creation apparatus is embodied by the same number of computers as the distance image sensors connected to each other via a network. コンピュータを請求項7又は8に記載の三次元モデル作成装置として動作させるための三次元モデル作成用プログラム。   A three-dimensional model creation program for causing a computer to operate as the three-dimensional model creation device according to claim 7 or 8. a) 予め決められた被写体位置を取り囲むように配置される、それぞれが被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データを取得可能である4台以上の距離画像センサと、
b) 使用者による所定の入力操作に応じて、前記4台以上の距離画像センサのそれぞれにより、前記被写体の撮像データと深度データを取得するデータ取得部と、
c) 前記4台以上の距離画像センサのそれぞれにより取得した、前記撮像データと前記深度データの各組について複数の点の空間座標を生成する頂点座標生成部と、
d) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
e) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
f) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
を備えることを特徴とする三次元モデルの作成システム。
a) Acquire imaging data that is arranged so as to surround a predetermined subject position, each of which is two-dimensional image data of the subject, and depth data representing a two-dimensional distribution of the distance from the distance image sensor to the subject. 4 or more range image sensors that are possible,
b) a data acquisition unit for acquiring imaging data and depth data of the subject by each of the four or more distance image sensors in accordance with a predetermined input operation by a user;
c) a vertex coordinate generation unit that generates spatial coordinates of a plurality of points for each set of the imaging data and the depth data acquired by each of the four or more distance image sensors;
d) For each of the four or more distance image sensors, a partial three-dimensional combination composed of a combination of a plurality of polygons created by connecting a predetermined number of points located on the same plane among the plurality of points. A partial 3D polygon model creation unit for creating a polygon model;
e) Spatial coordinates corresponding to one common space coordinate system by converting the spatial coordinates of a plurality of points constituting each partial three-dimensional polygon model into coordinates based on the positional relationship between the corresponding distance image sensor and the subject. An overall 3D polygon model creation unit that creates an overall 3D polygon model in which a plurality of the partial 3D polygon models are integrated into one,
f) In the overall three-dimensional polygon model, a polygon aggregate deleting unit that deletes a polygon aggregate composed of a predetermined number of polygons or less, and
A system for creating a three-dimensional model, comprising:
前記4台以上の距離画像センサの一部が前記被写体を上方から捉えるように配置され、前記4台以上の距離画像センサの別の一部が前記被写体を下方から捉えるように配置されていることを特徴とする請求項10に記載の三次元モデルの作成システム。   A part of the four or more distance image sensors is arranged so as to catch the subject from above, and another part of the four or more distance image sensors is arranged so as to catch the subject from below. The three-dimensional model creation system according to claim 10.
JP2017028809A 2016-02-26 2017-02-20 3D model creation method, 3D model creation device, 3D model creation system, and 3D model creation program Active JP6348623B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016035115 2016-02-26
JP2016035115 2016-02-26

Publications (2)

Publication Number Publication Date
JP2017157208A true JP2017157208A (en) 2017-09-07
JP6348623B2 JP6348623B2 (en) 2018-06-27

Family

ID=59809965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017028809A Active JP6348623B2 (en) 2016-02-26 2017-02-20 3D model creation method, 3D model creation device, 3D model creation system, and 3D model creation program

Country Status (1)

Country Link
JP (1) JP6348623B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685891A (en) * 2018-12-28 2019-04-26 鸿视线科技(北京)有限公司 3 d modeling of building and virtual scene based on depth image generate system
KR20190048507A (en) * 2017-10-31 2019-05-09 에스케이텔레콤 주식회사 Apparatus and method for simplification of 3d mesh data
JP2020067393A (en) * 2018-10-25 2020-04-30 株式会社Vrc Three-dimensional modeling data generation device
US11037037B2 (en) 2018-07-05 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer readable storage medium
US11153552B2 (en) 2018-06-29 2021-10-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method and non-transitory computer-readable storage medium
CN116188714A (en) * 2023-04-27 2023-05-30 山东翰林科技有限公司 Geospatial coordinate processing method based on illusion engine

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08293042A (en) * 1995-04-20 1996-11-05 Canon Inc Method and device for integrating three-dimensional shape data
JPH10149445A (en) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho Device for visualizing physical operation analysis
JP2006064453A (en) * 2004-08-25 2006-03-09 Fuji Xerox Co Ltd 3-dimensional geometry input device and method
JP2009032122A (en) * 2007-07-27 2009-02-12 Hiroshima Industrial Promotion Organization Image processor, image processing method, and program
JP2014211719A (en) * 2013-04-17 2014-11-13 キヤノン株式会社 Apparatus and method for information processing
JP3195609U (en) * 2014-11-10 2015-01-29 株式会社イノベ−ション・アイ 3D model creation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08293042A (en) * 1995-04-20 1996-11-05 Canon Inc Method and device for integrating three-dimensional shape data
JPH10149445A (en) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho Device for visualizing physical operation analysis
JP2006064453A (en) * 2004-08-25 2006-03-09 Fuji Xerox Co Ltd 3-dimensional geometry input device and method
JP2009032122A (en) * 2007-07-27 2009-02-12 Hiroshima Industrial Promotion Organization Image processor, image processing method, and program
JP2014211719A (en) * 2013-04-17 2014-11-13 キヤノン株式会社 Apparatus and method for information processing
JP3195609U (en) * 2014-11-10 2015-01-29 株式会社イノベ−ション・アイ 3D model creation device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190048507A (en) * 2017-10-31 2019-05-09 에스케이텔레콤 주식회사 Apparatus and method for simplification of 3d mesh data
KR102005492B1 (en) 2017-10-31 2019-07-30 에스케이텔레콤 주식회사 Apparatus and method for simplification of 3d mesh data
US11153552B2 (en) 2018-06-29 2021-10-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method and non-transitory computer-readable storage medium
US11037037B2 (en) 2018-07-05 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer readable storage medium
JP2020067393A (en) * 2018-10-25 2020-04-30 株式会社Vrc Three-dimensional modeling data generation device
CN109685891A (en) * 2018-12-28 2019-04-26 鸿视线科技(北京)有限公司 3 d modeling of building and virtual scene based on depth image generate system
CN109685891B (en) * 2018-12-28 2023-09-01 鸿视线科技(北京)有限公司 Building three-dimensional modeling and virtual scene generation method and system based on depth image
CN116188714A (en) * 2023-04-27 2023-05-30 山东翰林科技有限公司 Geospatial coordinate processing method based on illusion engine

Also Published As

Publication number Publication date
JP6348623B2 (en) 2018-06-27

Similar Documents

Publication Publication Date Title
JP6348623B2 (en) 3D model creation method, 3D model creation device, 3D model creation system, and 3D model creation program
CN105354820B (en) Adjust the method and device of virtual reality image
US10873741B2 (en) Image processing apparatus and method
US10109113B2 (en) Pattern and method of virtual reality system based on mobile devices
JP6329343B2 (en) Image processing system, image processing apparatus, image processing program, and image processing method
JP4804256B2 (en) Information processing method
US10085008B2 (en) Image processing apparatus and method
WO2019123729A1 (en) Image processing device, image processing method, and program
JP5966256B2 (en) Image processing apparatus and method, program, and recording medium
JP2002058045A (en) System and method for entering real object into virtual three-dimensional space
JP7349793B2 (en) Image processing device, image processing method, and program
JPWO2017094543A1 (en) Information processing apparatus, information processing system, information processing apparatus control method, and parameter setting method
JP2006249618A (en) Virtual try-on device
JP7073481B2 (en) Image display system
JP2017151648A (en) Information processing apparatus, information processing method, information processing system, and program
KR20170044318A (en) Method for collaboration using head mounted display
KR20220092998A (en) Co-located pose estimation in a shared artificial reality environment
JP2019145059A (en) Information processing unit, information processing system, information processing method and program
WO2017141584A1 (en) Information processing apparatus, information processing system, information processing method, and program
JP6775669B2 (en) Information processing device
US20220114792A1 (en) Mixed reality display device and mixed reality display method
JP5759439B2 (en) Video communication system and video communication method
JP2020071718A (en) Information processing device, information processing method, and program
JP2022131777A (en) Information processing device, system having the same, information processing method, and program
JP5898036B2 (en) Video communication system and video communication method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180531

R150 Certificate of patent or registration of utility model

Ref document number: 6348623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250