JPWO2019049298A1 - 3D data system and 3D data processing method - Google Patents

3D data system and 3D data processing method Download PDF

Info

Publication number
JPWO2019049298A1
JPWO2019049298A1 JP2018532802A JP2018532802A JPWO2019049298A1 JP WO2019049298 A1 JPWO2019049298 A1 JP WO2019049298A1 JP 2018532802 A JP2018532802 A JP 2018532802A JP 2018532802 A JP2018532802 A JP 2018532802A JP WO2019049298 A1 JPWO2019049298 A1 JP WO2019049298A1
Authority
JP
Japan
Prior art keywords
data
subject
individuality
unit
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018532802A
Other languages
Japanese (ja)
Other versions
JP6489726B1 (en
Inventor
英弟 謝
道久 井口
幸久 楠田
道明 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VRC Inc
Original Assignee
VRC Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VRC Inc filed Critical VRC Inc
Application granted granted Critical
Publication of JP6489726B1 publication Critical patent/JP6489726B1/en
Publication of JPWO2019049298A1 publication Critical patent/JPWO2019049298A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

3Dデータシステム(1)は、対象となる被写体の表面を撮影した撮影画像、及び基準点から前記表面までの距離を示す距離情報を取得する画像取得部(11)と、前記撮影画像及び前記距離情報から得られる前記対象となる被写体の3Dモデルを示す3Dモデリングデータに対し、当該3Dモデルの動的な個性を示す個性データを付加する付加部(21)と、前記個性データが付加された前記3Dモデリングデータを記憶する記憶部(22)とを有する。The 3D data system (1) includes an image acquisition unit (11) that acquires a captured image obtained by capturing the surface of a target subject, and distance information indicating a distance from a reference point to the surface, and the captured image and the distance. An addition unit (21) for adding individuality data indicating the dynamic individuality of the 3D model to the 3D modeling data indicating the 3D model of the subject subject obtained from information, and the individuality data added thereto And a storage unit (22) for storing 3D modeling data.

Description

本発明は、3Dモデリングデータを扱う技術に関する。   The present invention relates to a technique for handling 3D modeling data.

人間や物品等を撮影して3Dデータ化し、仮想空間内で用いる技術が知られている。特許文献1には、人間の3Dモデルに異なるポーズを取らせたりモーションを行わせたりするための技術が記載されている。より詳細には、特許文献1には、被写体に基本ポーズ及びそれ以外の変形ポーズをとらせた上で撮影し、ポーズ毎に被写体の3Dモデリングデータを生成し、異なるポーズ間でモデルを比較して各部の回転の支点を検出することが記載されている。   A technique is known in which a person or an article is photographed to form 3D data and used in a virtual space. Patent Document 1 describes a technique for causing a human 3D model to take different poses or perform motions. More specifically, in Patent Document 1, a subject is captured with a basic pose and other modified poses taken, 3D modeling data of the subject is generated for each pose, and models are compared between different poses. The detection of the fulcrum of rotation of each part is described.

特開2002−58045号公報JP 2002-58045 A

特許文献1の技術によっては、3Dモデリングデータに対して外見以外の個性を与えることができなかった。これに対し本発明は、3Dモデリングデータに対し外見以外の個性を与える技術を提供する。   According to the technique of Patent Document 1, individuality other than appearance cannot be given to the 3D modeling data. In contrast, the present invention provides a technique for giving individuality other than appearance to 3D modeling data.

本発明は、対象となる被写体の表面を撮影した撮影画像、及び基準点から前記表面までの距離を示す距離情報を取得する画像取得部と、前記撮影画像及び前記距離情報から得られる前記対象となる被写体の3Dモデリングデータに対し、当該3Dモデリングデータの動的な個性を示す個性データを付加する付加部と、前記個性データが付加された前記3Dモデリングデータを記憶する記憶部とを有する3Dデータシステムを提供する。   The present invention provides a captured image obtained by capturing the surface of a subject to be processed, an image acquisition unit that acquires distance information indicating a distance from a reference point to the surface, and the target obtained from the captured image and the distance information. 3D data including an adding unit for adding individuality data indicating dynamic individuality of the 3D modeling data to the subject 3D modeling data, and a storage unit for storing the 3D modeling data to which the individuality data is added Provide a system.

この3Dデータシステムは、前記3Dモデリングデータを用いて、前記対象となる被写体の個性を推定する推定部を有し、前記付加部は、前記推定部により推定された個性を示すデータを前記個性データとして付加してもよい。   The 3D data system includes an estimation unit that estimates the individuality of the target subject using the 3D modeling data, and the addition unit uses the individuality data to indicate data indicating the individuality estimated by the estimation unit. It may be added as

この3Dデータシステムは、前記撮影画像から複数の特徴点を取得する特徴取得部と、前記複数の特徴点の位置関係に関する特徴量を計算する計算部とを有し、前記推定部は、前記特徴量を用いて前記対象となる被写体の個性を推定してもよい。   The 3D data system includes a feature acquisition unit that acquires a plurality of feature points from the captured image, and a calculation unit that calculates a feature amount related to a positional relationship between the plurality of feature points, and the estimation unit includes the feature The individuality of the subject subject may be estimated using the quantity.

この3Dデータシステムは、前記対象となる被写体を複数のグループのいずれかに分類する分類部を有し、前記推定部は、前記分類に基づいて前記被写体の個性を推定してもよい。   The 3D data system may include a classification unit that classifies the target subject into any of a plurality of groups, and the estimation unit may estimate the individuality of the subject based on the classification.

前記分類部は、既存の複数の被写体を、当該複数の被写体の各々の撮影画像から得られた特徴量に基づいて前記複数のグループに分類し、前記対象となる被写体を、前記既存の複数の被写体の特徴量に基づいて得られた複数のグループのいずれかに分類してもよい。   The classifying unit classifies the plurality of existing subjects into the plurality of groups based on the feature amounts obtained from the captured images of the plurality of subjects, and sets the subject subjects as the plurality of existing subjects. You may classify | categorize into either of the several groups obtained based on the to-be-photographed object's feature-value.

前記特徴取得部は、前記撮影画像から前記被写体の静的な特徴量を取得し、前記分類部は、前記静的な特徴量を用いて、前記被写体を前記複数のグループのいずれかに分類してもよい。   The feature acquisition unit acquires a static feature amount of the subject from the captured image, and the classification unit classifies the subject into one of the plurality of groups using the static feature amount. May be.

前記画像取得部は、前記被写体に関し、各々ポーズが異なる複数の撮影画像を取得し、前記特徴取得部は、前記複数の撮影画像から前記被写体の動的な特徴量を取得し、前記分類部は、前記動的な特徴量を用いて、前記被写体を前記複数のグループのいずれかに分類してもよい。   The image acquisition unit acquires a plurality of captured images each having a different pose with respect to the subject, the feature acquisition unit acquires a dynamic feature amount of the subject from the plurality of captured images, and the classification unit The subject may be classified into any of the plurality of groups using the dynamic feature amount.

前記複数のグループの各々は、当該グループを代表する個性を示す代表個性データを有し、前記推定部は、前記被写体が属するグループの代表個性データにより示される個性を、当該被写体の個性として推定してもよい。   Each of the plurality of groups has representative individuality data indicating the individuality representing the group, and the estimation unit estimates the individuality indicated by the representative individuality data of the group to which the subject belongs as the individuality of the subject. May be.

前記複数のグループの各々は、当該グループを代表する特徴量を示す代表特徴量、及び当該グループを代表する個性を示す代表個性データを有し、前記代表特徴量と前記被写体から得られた前記特徴量との差に応じて前記代表個性データを補正する補正部を有し、前記推定部は、前記補正部により補正された前記代表個性データにより示される個性を、前記被写体の個性として推定してもよい。   Each of the plurality of groups has a representative feature amount representing a feature amount representing the group and representative individuality data representing individuality representing the group, and the feature obtained from the representative feature amount and the subject. A correction unit that corrects the representative individuality data according to a difference from the amount, and the estimation unit estimates the individuality indicated by the representative individuality data corrected by the correction unit as the individuality of the subject. Also good.

前記分類部は、既存の複数の被写体を、当該複数の被写体の各々の撮影画像から得られた特徴量に基づいて前記複数のグループに分類し、前記推定部は、前記複数のグループの各々について、当該グループに属する既存の被写体の少なくとも一部に関して取得された、各々ポーズが異なる複数の撮影画像から得られた個性データを前記代表個性データとして用いてもよい。   The classifying unit classifies a plurality of existing subjects into the plurality of groups based on feature amounts obtained from captured images of the plurality of subjects, and the estimation unit is configured for each of the plurality of groups. Individual data obtained from a plurality of photographed images with different poses acquired for at least a part of existing subjects belonging to the group may be used as the representative personality data.

前記分類部は、前記分類後のグループの数がそれぞれ異なる複数のレベルの中から選択された少なくとも1つのレベルに従って前記被写体を分類し、前記推定部は、前記複数のレベルのうち第1レベルの分類においては、当該分類後のグループにおける前記特徴量の代表値と、前記被写体の前記特徴量との差に基づいて、前記被写体の個性を推定し、前記第1レベルよりも前記分類後のグループの数が多い第2レベルの分類においては、当該分類後のグループを代表する個性を、前記被写体の個性を推定してもよい。   The classification unit classifies the subject according to at least one level selected from a plurality of levels with different numbers of groups after the classification, and the estimation unit includes a first level of the plurality of levels. In the classification, the individuality of the subject is estimated based on the difference between the representative value of the feature amount in the group after the classification and the feature amount of the subject, and the group after the classification is more than the first level. In the second-level classification with a large number, the individuality representing the group after the classification may be estimated as the individuality of the subject.

また、本発明は、被写体の表面を撮影した撮影画像、及び基準点から前記表面までの距離を示す距離情報を取得するステップと、前記撮影画像及び前記距離情報から得られる前記被写体の3Dモデリングデータに対し、当該3Dモデリングデータの動的な個性データを付加するステップと、前記個性データが付加された前記3Dモデリングデータを記憶するステップとを有する3Dデータ処理方法を提供する。   The present invention also includes a step of acquiring a photographed image obtained by photographing a surface of a subject, distance information indicating a distance from a reference point to the surface, and 3D modeling data of the subject obtained from the photographed image and the distance information. In contrast, the present invention provides a 3D data processing method comprising the steps of adding dynamic personality data of the 3D modeling data and storing the 3D modeling data to which the personality data is added.

さらに、本発明は、対象となる被写体の表面を撮影した撮影画像、及び基準点から前記表面までの距離を示す距離情報を取得する画像取得部と、前記撮影画像及び前記距離情報から得られる前記対象となる被写体の3Dモデルを示す3Dモデリングデータに対し、当該3Dモデルに動きを与えるためのボーン構造を示すボーンデータ及び当該3Dモデルの属性を示すメタデータを付加する付加部と、前記ボーンデータ及びメタデータが付加された前記3Dモデリングデータを記憶する記憶部とを有する3Dデータシステムを提供する。   Furthermore, the present invention provides a captured image obtained by capturing the surface of a subject to be processed, an image acquisition unit that acquires distance information indicating a distance from a reference point to the surface, and the acquired image and the distance information. An addition unit for adding bone data indicating bone structure for giving motion to the 3D model and metadata indicating attributes of the 3D model to 3D modeling data indicating the 3D model of the subject to be processed; and the bone data And a storage unit for storing the 3D modeling data to which metadata is added.

前記メタデータは、仮想空間に位置する前記3Dモデルを表示する際に用いられる仮想カメラの位置又は画角を制限するデータを含んでもよい。   The metadata may include data that restricts the position or angle of view of a virtual camera used when displaying the 3D model located in the virtual space.

前記メタデータは、前記3Dモデルの音声データを含んでもよい。   The metadata may include audio data of the 3D model.

本発明によれば、3Dモデリングデータに対し外見以外の個性を与えることができる。   According to the present invention, individuality other than appearance can be given to 3D modeling data.

一実施形態に係る3Dデータシステム1の概略を示す図。The figure which shows the outline of the 3D data system 1 which concerns on one Embodiment. 3Dデータシステム1の機能構成を例示する図。The figure which illustrates the function structure of 3D data system 1. 3Dデータ入力システム10の構成を例示する図。1 is a diagram illustrating a configuration of a 3D data input system 10. 3Dデータ処理システム20のハードウェア構成を例示する図。The figure which illustrates the hardware constitutions of 3D data processing system 20. 3Dデータシステム1の一実施形態に係る動作を例示する図。The figure which illustrates the operation | movement which concerns on one Embodiment of 3D data system. 被写体の3Dモデリングデータを生成する処理の詳細を例示する図。The figure which illustrates the details of processing which generates 3D modeling data on a subject. 標準モデルの調整を例示する図。The figure which illustrates adjustment of a standard model. 特徴点の位置関係を例示する図。The figure which illustrates the positional relationship of a feature point. 3Dモデリングデータに個性を付加する処理の詳細を例示する図。The figure which illustrates the detail of the process which adds individuality to 3D modeling data. 3Dモデリングデータの分類を例示する図。The figure which illustrates classification of 3D modeling data. 3Dモデリングデータの動きを例示する図。The figure which illustrates the motion of 3D modeling data. 顔面から抽出される特徴点を例示する図。The figure which illustrates the feature point extracted from a face. 3Dモデリングデータを利用する処理の詳細を例示する図。The figure which illustrates the detail of the process using 3D modeling data. 変形例1に係る3Dデータシステム1の概略を示す図。The figure which shows the outline of the 3D data system 1 which concerns on the modification 1. FIG.

1…3Dデータシステム、10…3Dデータ入力システム、11…取得部、12…生成部、13…取得部、20…3Dデータ処理システム、21…付加部、22…記憶部、23…分類部、24…推定部、30…アプリケーション、201…CPU、202…メモリ、203…ストレージ、204…ネットワークIF DESCRIPTION OF SYMBOLS 1 ... 3D data system, 10 ... 3D data input system, 11 ... Acquisition part, 12 ... Generation part, 13 ... Acquisition part, 20 ... 3D data processing system, 21 ... Addition part, 22 ... Storage part, 23 ... Classification part, 24 ... Estimation unit, 30 ... Application, 201 ... CPU, 202 ... Memory, 203 ... Storage, 204 ... Network IF

1.構成
図1は、一実施形態に係る3Dデータシステム1の概略を示す図である。3Dデータシステム1は、被写体の表面を撮影した画像(以下「撮影画像」という)を用いて3Dモデリングデータを生成し、これを記憶し、さらに要求に応じて3Dモデリングデータをアプリケーションに提供するシステムである。「被写体」は3Dモデリングデータを生成する対象となる物体をいい、人間や動物などの生物、及び人形や家具などの無生物を含む。3Dモデリングデータは、3Dモデルを表示するためのデータをいう。3Dモデルとは、3次元仮想空間における立体のデータをいう。3Dモデルは、少なくとも、被写体の表面形状及び表面の色彩に関する情報を含む。
1. Configuration FIG. 1 is a diagram schematically illustrating a 3D data system 1 according to an embodiment. The 3D data system 1 generates 3D modeling data using an image obtained by capturing the surface of a subject (hereinafter referred to as “captured image”), stores the 3D modeling data, and further provides 3D modeling data to an application as required. It is. “Subject” refers to an object for which 3D modeling data is generated, and includes living things such as humans and animals, and inanimate objects such as dolls and furniture. 3D modeling data refers to data for displaying a 3D model. A 3D model refers to solid data in a three-dimensional virtual space. The 3D model includes at least information regarding the surface shape and color of the subject.

3Dデータシステム1は、3Dデータ入力システム10、3Dデータ処理システム20、及びアプリケーション30を有する。3Dデータ入力システム10は、撮影画像から3Dモデリングデータを生成する。3Dデータ入力システム10は、例えばいわゆる3Dスキャナを含む。3Dデータ処理システム20は、3Dデータ入力システム10により生成された3Dモデリングデータを処理及び記憶する。アプリケーション30は、3Dモデリングデータを利用した製品又はサービスをユーザに提供する。なお図では3Dデータ入力システム10及びアプリケーション30はそれぞれ1つずつ示されているが、3Dデータシステム1は、3Dデータ入力システム10及びアプリケーション30の少なくともいずれか一方を複数、有してもよい。一例として、3Dデータ入力システム10はローカルなシステムであり、3Dデータ処理システム20はネットワーク上のシステム、いわゆるクラウドシステムである。   The 3D data system 1 includes a 3D data input system 10, a 3D data processing system 20, and an application 30. The 3D data input system 10 generates 3D modeling data from the captured image. The 3D data input system 10 includes, for example, a so-called 3D scanner. The 3D data processing system 20 processes and stores the 3D modeling data generated by the 3D data input system 10. The application 30 provides a user with a product or service using 3D modeling data. In the figure, one 3D data input system 10 and one application 30 are shown, but the 3D data system 1 may include a plurality of at least one of the 3D data input system 10 and the applications 30. As an example, the 3D data input system 10 is a local system, and the 3D data processing system 20 is a system on a network, a so-called cloud system.

図2は、3Dデータシステム1の機能構成を例示する図である。3Dデータシステム1は、取得部11、生成部12、付加部21、記憶部22、及び出力部25を有する。取得部11は、撮影画像及び距離情報を取得する(画像取得部の一例)。撮影画像は、被写体の表面を撮影した画像である。距離情報は、基準点から被写体の表面までの距離を示す情報である。取得部11は、カメラ等の撮影装置及び距離センサー(いずれも図2では図示略)から撮影画像及び距離情報を取得する。生成部12は、撮影画像及び距離情報を用いて、被写体の3Dモデリングデータを生成する。付加部21は、生成部12により生成された3Dモデリングデータに対し、その3Dモデリングデータの動的な個性データを付加する。個性データとは、3Dモデルの個性(多くの場合、被写体の個性に相当する)を示すデータである。この例において、個性データは動的な個性を示す。記憶部22は、種々のデータ、例えば、個性データが付加された3Dモデリングデータを記憶する。出力部25は、アプリケーション30からの要求に応じて3Dモデリングデータ及び個性データを出力する。   FIG. 2 is a diagram illustrating a functional configuration of the 3D data system 1. The 3D data system 1 includes an acquisition unit 11, a generation unit 12, an addition unit 21, a storage unit 22, and an output unit 25. The acquisition unit 11 acquires a captured image and distance information (an example of an image acquisition unit). The captured image is an image obtained by capturing the surface of the subject. The distance information is information indicating the distance from the reference point to the surface of the subject. The acquisition unit 11 acquires a captured image and distance information from an imaging device such as a camera and a distance sensor (both not shown in FIG. 2). The generation unit 12 generates 3D modeling data of the subject using the captured image and the distance information. The adding unit 21 adds the dynamic personality data of the 3D modeling data to the 3D modeling data generated by the generating unit 12. Individuality data is data indicating the individuality of the 3D model (in many cases, it corresponds to the individuality of the subject). In this example, the personality data indicates a dynamic personality. The storage unit 22 stores various data, for example, 3D modeling data to which individuality data is added. The output unit 25 outputs 3D modeling data and individuality data in response to a request from the application 30.

3Dデータシステム1は、さらに、推定部24を有する。推定部24は、3Dモデリングデータを用いて、対象となる被写体の個性を推定する。付加部21が3Dモデリングデータに付加する個性データには、推定部24により推定された個性を示すデータが含まれる。   The 3D data system 1 further includes an estimation unit 24. The estimation unit 24 estimates the individuality of the subject subject using the 3D modeling data. The individuality data added by the adding unit 21 to the 3D modeling data includes data indicating the individuality estimated by the estimating unit 24.

3Dデータシステム1は、さらに、取得部13及び計算部14を有する。取得部13は、3Dモデリングデータから(又は撮影画像から)複数の特徴点を取得する(特徴取得部の一例)。これらの特徴点は、3Dモデル(又は被写体)の形状に関する特徴を示す点(図7等を参照して後述する)をいいう。計算部14は、複数の特徴点の位置関係に関する特徴量を計算する。推定部24は、対象となる被写体の個性を、この特徴量を用いて推定する。   The 3D data system 1 further includes an acquisition unit 13 and a calculation unit 14. The acquisition unit 13 acquires a plurality of feature points from 3D modeling data (or from a captured image) (an example of a feature acquisition unit). These feature points refer to points (to be described later with reference to FIG. 7 and the like) indicating features related to the shape of the 3D model (or subject). The calculation unit 14 calculates a feature amount related to the positional relationship between a plurality of feature points. The estimation unit 24 estimates the individuality of the subject subject using this feature amount.

3Dデータシステム1は、さらに、分類部23を有する。分類部23は、被写体を複数のグループのいずれかに分類する。推定部24は、対象となる被写体の個性を、この分類に基づいて推定する。   The 3D data system 1 further includes a classification unit 23. The classification unit 23 classifies the subject into any of a plurality of groups. The estimation unit 24 estimates the individuality of the subject subject based on this classification.

一例において、複数の特徴点の位置関係に関する特徴量は、被写体(3Dモデル)の静的な特徴を示す。静的な特徴とは、単一のポーズの被写体から得られる特徴をいう。これに対し動的な特徴とは、3Dモデルに複数のポーズ(又はモーション)を与えるための特徴(図11等を参照して後述する)をいう。既に説明したように、推定部24が推定する個性は、被写体の動的な個性、すなわち動的な特徴である。推定部24は、この例においては、静的な特徴を用いて動的な特徴を推定する。   In one example, the feature amount related to the positional relationship between a plurality of feature points indicates a static feature of the subject (3D model). Static features are features obtained from a single pose subject. On the other hand, the dynamic feature refers to a feature (to be described later with reference to FIG. 11) for giving a plurality of poses (or motions) to the 3D model. As already described, the individuality estimated by the estimation unit 24 is a dynamic individuality of the subject, that is, a dynamic feature. In this example, the estimation unit 24 estimates a dynamic feature using a static feature.

この例において、取得部11、生成部12.取得部13、及び計算部14は3Dデータ入力システム10に実装され、付加部21、記憶部22、分類部23、及び推定部24は3Dデータ処理システム20に実装される。なお、3Dデータ入力システム10及び3Dデータ処理システム20における機能の分担はあくまで例示であり、機能の分担は図2の例に限定されない。   In this example, the acquisition unit 11, the generation unit 12. The acquisition unit 13 and the calculation unit 14 are implemented in the 3D data input system 10, and the addition unit 21, the storage unit 22, the classification unit 23, and the estimation unit 24 are implemented in the 3D data processing system 20. Note that the sharing of functions in the 3D data input system 10 and the 3D data processing system 20 is merely an example, and the sharing of functions is not limited to the example of FIG.

図3は、3Dデータ入力システム10の構成を例示する図である。この例において、3Dデータ入力システム10は、いわゆる3Dスキャナである。3Dデータ入力システム10は、センサー群SD、ステージT、フレームF、及び画像処理装置100を有する。センサー群SDは、カメラC及び距離センサーDのセットを複数、含む。センサー群SDが固定された状態において、各カメラCは、被写体Sの表面のうちある限られた一部の領域のみを撮影する。距離センサーDは、その距離センサーDが設置された位置(基準位置の一例)から被写体Sの表面までの距離を検知する。距離センサーDは、赤外光等の可視光外の波長で所定のパターン図形(例えば格子)の像を投写する投写部、及び投写された像を読み取る撮像部を有する。セットになっているカメラC及び距離センサーDは、共通のマウント台Mに固定され、両者の光軸はほぼ同じ位置を向いている。フレームF(センサー群SD)は、ステージTに対し相対的に回転する。設置面に対しフレームFが固定された状態でステージTが回転してもよいし、設置面に対しステージTが固定された状態でフレームFがステージTの回りを回転してもよい。フレームFとステージTとが相対的に回転している間に、カメラCは被写体Sを撮影する。フレームFとステージTと相対的に静止している状態では、センサー群SDは被写体Sの表面のうちある限られた一部の領域のみしかカバーしていない。しかし、フレームFとステージTとを相対的に360°回転させ、その間に連続的に撮影することによって、センサー群SDは被写体Sの表面の全領域を撮影する。   FIG. 3 is a diagram illustrating a configuration of the 3D data input system 10. In this example, the 3D data input system 10 is a so-called 3D scanner. The 3D data input system 10 includes a sensor group SD, a stage T, a frame F, and an image processing apparatus 100. The sensor group SD includes a plurality of sets of cameras C and distance sensors D. In a state where the sensor group SD is fixed, each camera C captures only a limited part of the surface of the subject S. The distance sensor D detects the distance from the position (an example of the reference position) where the distance sensor D is installed to the surface of the subject S. The distance sensor D includes a projection unit that projects an image of a predetermined pattern figure (for example, a lattice) at a wavelength outside visible light such as infrared light, and an imaging unit that reads the projected image. The camera C and the distance sensor D in a set are fixed to a common mount base M, and the optical axes of both are facing substantially the same position. The frame F (sensor group SD) rotates relative to the stage T. The stage T may rotate with the frame F fixed to the installation surface, or the frame F may rotate around the stage T with the stage T fixed to the installation surface. While the frame F and the stage T are relatively rotated, the camera C captures the subject S. In a state where the frame F and the stage T are relatively stationary, the sensor group SD covers only a limited part of the surface of the subject S. However, the sensor group SD captures the entire area of the surface of the subject S by rotating the frame F and the stage T relative to each other by 360 ° and continuously capturing images during that time.

なお図3はあくまで3Dデータ入力システム10の構成の一例であって、3Dデータ入力システム10はこの構成に限定されない。例えば、3Dデータ入力システム10において、被写体Sの表面の全領域を空間的にカバーできる十分な数のセンサー群SDが、適切な位置に設置されていてもよい。この場合、センサー群SDはステージTに対して固定される。さらに別の例示で、3Dデータ入力システム10は、ステージTを上から見たときに所定の間隔(例えば120°おき)に複数のフレームFを有してもよい。この場合、フレームFとステージTとが相対的に120°回転すれば、センサー群SDは被写体Sの表面の全領域を撮影することができる。   3 is merely an example of the configuration of the 3D data input system 10, and the 3D data input system 10 is not limited to this configuration. For example, in the 3D data input system 10, a sufficient number of sensor groups SD capable of spatially covering the entire area of the surface of the subject S may be installed at appropriate positions. In this case, the sensor group SD is fixed with respect to the stage T. As another example, the 3D data input system 10 may have a plurality of frames F at predetermined intervals (for example, every 120 °) when the stage T is viewed from above. In this case, if the frame F and the stage T rotate relative to each other by 120 °, the sensor group SD can capture the entire area of the surface of the subject S.

図4は、3Dデータ処理システム20のハードウェア構成を例示する図である。3Dデータ処理システム20は、CPU(Central Processing Unit)201、メモリ202、ストレージ203、及びネットワークIF204を有するコンピュータ装置である。CPU201は、プログラムに従って処理を実行し、3Dデータ処理システム20の他のハードウェア要素を制御する制御装置である。メモリ202は、CPU201がプログラムを実行する際のワークエリアとして機能する主記憶装置であり、例えばRAM(Random Access Memory)を含む。ストレージ203は、各種のプログラム及びデータを記憶する不揮発性の補助記憶装置であり、例えばHDD(Hard Disk Drive)及びSSD(Solid State Drive)の少なくとも一方を含む。ネットワークIF204は、所定の通信規格(例えばTCP/IP)に従った通信を行うためのインターフェースであり、例えばNIC(Network Interface Card)を含む。   FIG. 4 is a diagram illustrating a hardware configuration of the 3D data processing system 20. The 3D data processing system 20 is a computer device having a CPU (Central Processing Unit) 201, a memory 202, a storage 203, and a network IF 204. The CPU 201 is a control device that executes processing according to a program and controls other hardware elements of the 3D data processing system 20. The memory 202 is a main storage device that functions as a work area when the CPU 201 executes a program, and includes, for example, a RAM (Random Access Memory). The storage 203 is a nonvolatile auxiliary storage device that stores various programs and data, and includes, for example, at least one of an HDD (Hard Disk Drive) and an SSD (Solid State Drive). The network IF 204 is an interface for performing communication according to a predetermined communication standard (for example, TCP / IP), and includes, for example, a NIC (Network Interface Card).

この例において、ストレージ203は、コンピュータ装置を3Dデータ処理システム20として機能させるためのプログラム(以下「3Dデータ処理プログラム」という)を記憶している。CPU201が3Dデータ処理プログラムを実行することにより、コンピュータ装置に図2の機能が実装される。3Dデータ処理プログラムを実行しているCPU201は、付加部21、記憶部22、分類部23、及び推定部24の一例である。   In this example, the storage 203 stores a program for causing the computer device to function as the 3D data processing system 20 (hereinafter referred to as “3D data processing program”). When the CPU 201 executes the 3D data processing program, the function of FIG. 2 is implemented in the computer apparatus. The CPU 201 executing the 3D data processing program is an example of the addition unit 21, the storage unit 22, the classification unit 23, and the estimation unit 24.

アプリケーション30は、3Dモデリングデータを用いるものであれば、どのようなものであってもよい。一例として、アプリケーション30は、IDカード、名刺、ヴァーチャルコミュニケーション、ビデオゲーム、着せ替え(試着)、採寸、ヴァーチャルシアター、フィットネス、医療、及び映画製作のうち少なくとも1つを含む。   The application 30 may be anything as long as it uses 3D modeling data. As an example, the application 30 includes at least one of an ID card, a business card, virtual communication, a video game, dress-up (try-on), measurement, virtual theater, fitness, medical care, and movie production.

2.動作
図5は、3Dデータシステム1の一実施形態に係る動作(3Dデータ処理方法)を例示する図である。図5は動作の概要を示している。ステップS1において、3Dデータ入力システム10は、被写体の3Dモデリングデータを生成する。ステップS2において、3Dデータ処理システム20は、3Dモデリングデータに個性データを付加する処理を行う。個性データが与えられることにより、3Dモデリングデータの動きに個性が与えられる。ステップS3において、アプリケーション30は、3Dモデリングデータ及び個性データを用いて、ユーザに製品又はサービスを提供する。
2. Operation FIG. 5 is a diagram illustrating an operation (3D data processing method) according to an embodiment of the 3D data system 1. FIG. 5 shows an outline of the operation. In step S1, the 3D data input system 10 generates 3D modeling data of the subject. In step S2, the 3D data processing system 20 performs processing for adding individuality data to the 3D modeling data. By giving individuality data, individuality is given to the movement of the 3D modeling data. In step S3, the application 30 provides products or services to the user using the 3D modeling data and the personality data.

2−1.動作例1
2−1−1.3Dモデリングデータの生成
図6は、被写体の3Dモデリングデータを生成する処理の詳細を例示する図である。図6は、3Dデータシステム1が複数の被写体(以下「既存の被写体」という)の各々について3Dモデリングデータを既に記憶した状態で、新たな被写体(以下「対象被写体S」という)について3Dモデリングデータを生成する状況を想定する。図6の処理は、例えば、3Dデータ入力システム10に対しユーザが3Dモデリングデータの生成を指示したことを契機として開始される。
2-1. Operation example 1
2-1.1.3 Generation of 3D modeling data FIG. 6 is a diagram illustrating details of processing for generating 3D modeling data of a subject. FIG. 6 shows 3D modeling data for a new subject (hereinafter referred to as “target subject S”) in a state where the 3D data system 1 has already stored 3D modeling data for each of a plurality of subjects (hereinafter referred to as “existing subjects”). Assume a situation that generates The process in FIG. 6 is started when, for example, the user instructs the 3D data input system 10 to generate 3D modeling data.

ステップS11において、3Dデータ入力システム10は、対象被写体Sを撮影し、撮影画像を得る。対象被写体Sはあらかじめ決められたポーズで撮影される。3Dデータ入力システム10は、撮影画像に加え、カメラCまでの距離を計測するための画像(例えば赤外線のパターン図形の像。以下「パターン画像」という)を取得する。   In step S11, the 3D data input system 10 captures the target subject S and obtains a captured image. The target subject S is photographed in a predetermined pose. In addition to the captured image, the 3D data input system 10 acquires an image (for example, an image of an infrared pattern figure; hereinafter referred to as a “pattern image”) for measuring the distance to the camera C.

ステップS12において、3Dデータ入力システム10は、撮影画像から3Dモデリングデータを生成する。3Dデータ入力システム10は、カメラCからパターン画像における各点までの距離、すなわち対象被写体Sの表面の立体形状を、パターン画像を用いて計算する。3Dデータ入力システム10は、計算された立体形状に対して撮影画像を貼り付ける。こうして、対象被写体Sの3Dモデリングデータが得られる。   In step S12, the 3D data input system 10 generates 3D modeling data from the captured image. The 3D data input system 10 calculates the distance from the camera C to each point in the pattern image, that is, the three-dimensional shape of the surface of the target subject S, using the pattern image. The 3D data input system 10 pastes the captured image on the calculated three-dimensional shape. In this way, 3D modeling data of the subject S is obtained.

ステップS13において、3Dデータ入力システム10は、3Dモデリングデータから特徴点を取得する。この特徴点は、3Dモデリングデータから得られる。形状の特徴点は、例えば、3Dモデルにおける、いわゆるボーンの端点である。ボーンは、3Dモデルに動き(モーション)を与えるための仮想的な構造である。   In step S13, the 3D data input system 10 acquires feature points from the 3D modeling data. This feature point is obtained from 3D modeling data. The feature points of the shape are so-called bone end points in the 3D model, for example. The bone is a virtual structure for giving motion to the 3D model.

この例において、3Dデータ入力システム10は、3Dモデルのボーン構造の標準モデルを有している。標準モデルは、例えば現実の人体の骨格構造に準じたボーン構造を有する。標準モデルは、例えば、成人男性、成人女性、老人男性、老人女性、幼年男子、及び幼年女子などのカテゴリーに分類される。3Dデータ入力システム10は、これら複数の標準モデルの中からユーザの属性に応じた標準モデルを選択する。3Dデータ入力システム10は、例えば、撮影画像を用いてユーザの属性(例えば年齢及び性別)を自動的に判断する。あるいは、3Dデータ入力システム10は、自身の属性を入力するようユーザに促し、ユーザの入力に従ってそのユーザの属性を設定してもよい。3Dデータ入力システム10は、選択された標準モデルを生成された3Dモデルに合わせて調整し、調整した標準モデルを3Dモデルに当てはめる。   In this example, the 3D data input system 10 has a standard model of a 3D model bone structure. The standard model has, for example, a bone structure conforming to the skeleton structure of an actual human body. The standard model is classified into categories such as an adult male, an adult female, an elderly man, an elderly woman, an infant boy, and an infant girl. The 3D data input system 10 selects a standard model corresponding to the user's attribute from the plurality of standard models. For example, the 3D data input system 10 automatically determines a user's attributes (for example, age and sex) using a captured image. Alternatively, the 3D data input system 10 may prompt the user to input his / her attributes and set the user's attributes according to the user's input. The 3D data input system 10 adjusts the selected standard model according to the generated 3D model, and applies the adjusted standard model to the 3D model.

図7は、標準モデルの調整を例示する図である。図7(A)の左は3Dモデルを、右はボーンの標準モデルを示す。ボーンの標準モデルにおいて、端点はドット(●)で表されている。これら複数の端点はいずれも、3Dモデルの特徴点の一例である。3Dデータ入力システム10は、例えば、3Dモデルと適合するように標準モデルの高さ(身長)を伸び縮みさせる(図7(A))。さらに、3Dデータ入力システム10は、各ボーンの端点の位置を、ボーンに垂直な方向における中心位置に移動させる(図7(B))。   FIG. 7 is a diagram illustrating adjustment of the standard model. 7A shows the 3D model on the left and the standard model of the bone on the right. In the standard model of bone, the end points are represented by dots (●). These multiple end points are all examples of feature points of the 3D model. For example, the 3D data input system 10 expands and contracts the height (height) of the standard model so as to match the 3D model (FIG. 7A). Further, the 3D data input system 10 moves the position of the end point of each bone to the center position in the direction perpendicular to the bone (FIG. 7B).

図7(C)は、調整後の標準モデルを示している。この図における各ボーンの端点が、3Dモデリングデータから取得された特徴点に相当する。この図は、3Dモデリングデータの仮想的な重心を通り、かつ対象被写体Sの正面に対して平行な断面を示す。なお図7は単一の断面のみを示しているが、方向が異なる複数の断面において3Dモデルと適合するように標準モデルを調整してもよい。   FIG. 7C shows the standard model after adjustment. The end points of each bone in this figure correspond to feature points acquired from 3D modeling data. This figure shows a cross section passing through the virtual center of gravity of the 3D modeling data and parallel to the front of the subject S. Although FIG. 7 shows only a single cross section, the standard model may be adjusted so as to match the 3D model in a plurality of cross sections having different directions.

再び図6を参照する。ステップS14において、3Dデータ入力システム10は、複数の特徴点の位置関係を示す特徴量を計算する。この例において、3Dデータ入力システム10は、特定の特徴点に関し、他の特徴点との間の位置関係を示す特徴量を計算する。特定の特徴点は、例えば膝の関節に相当する位置の特徴点である。この場合において、特定の特徴点と、隣り合う他の特徴点との間の位置関係とは、膝の関節の、足首及び股関節との位置関係をいい、いわゆるO脚、X脚、又はXO脚等の度合いを示す。   Refer to FIG. 6 again. In step S <b> 14, the 3D data input system 10 calculates a feature amount indicating the positional relationship between a plurality of feature points. In this example, the 3D data input system 10 calculates a feature amount indicating a positional relationship with another feature point with respect to a specific feature point. The specific feature points are, for example, feature points at positions corresponding to knee joints. In this case, the positional relationship between a specific feature point and another adjacent feature point refers to the positional relationship of the knee joint with the ankle and hip joint, so-called O leg, X leg, or XO leg. Etc. are shown.

図8は、特徴点の位置関係を例示する図である。図8(A)は正常な脚を、(B)はO脚を、(C)はX脚を、それぞれ示している。特定の特徴量に関する特徴量は、例えば、股関節に相当する特徴点P1及び足首に相当する特徴点P3を結ぶ直線Lの長さL1に対する、膝に相当する特徴点P2と直線Lとの距離d1の比率として定義される。なおここで示した特定の特徴点及び特定の特徴点に関する特徴量の定義はあくまで例示であり、具体的にはどのように設定されてもよい。1つの3Dモデルが「特定の特徴点」を複数、有してもよい。例えば、つま先、膝、肘、手先、首、及び頭の先が特定の特徴点として設定されてもよい。   FIG. 8 is a diagram illustrating the positional relationship between feature points. FIG. 8A shows a normal leg, FIG. 8B shows an O leg, and FIG. 8C shows an X leg. The feature amount related to the specific feature amount is, for example, the distance d1 between the feature point P2 corresponding to the knee and the straight line L with respect to the length L1 of the straight line L connecting the feature point P1 corresponding to the hip joint and the feature point P3 corresponding to the ankle. Defined as the ratio of Note that the specific feature points and the definition of the feature amount related to the specific feature points shown here are merely examples, and may be set in any manner. One 3D model may have a plurality of “specific feature points”. For example, the tip of the toe, knee, elbow, hand, neck, and head may be set as specific feature points.

再び図6を参照する。ステップS15において、3Dデータ入力システム10は、特徴点に関する特徴量及び3Dモデリングデータを、3Dデータ処理システムに出力する。この例において、3Dモデリングデータには、被写体の属性(ID、年齢、及び性別等)を示すデータ(以下「属性データ」という)がさらに付加される。   Refer to FIG. 6 again. In step S15, the 3D data input system 10 outputs the feature amount and 3D modeling data related to the feature point to the 3D data processing system. In this example, data (hereinafter referred to as “attribute data”) indicating the attributes (ID, age, sex, etc.) of the subject is further added to the 3D modeling data.

2−1−2.個性データの付加
図9は、3Dモデリングデータに個性データを付加する処理の詳細を例示する図である。この処理は、例えば、3Dデータ入力システム10から3Dモデリングデータが入力されたことを契機として開始される。
2-1-2. Adding Individuality Data FIG. 9 is a diagram illustrating details of processing for adding individuality data to 3D modeling data. This process is started when 3D modeling data is input from the 3D data input system 10, for example.

ステップS21において、3Dデータ処理システム20は、対象被写体Sの3Dモデリングデータを、複数のグループのいずれかに分類する。分類は、例えば以下の観点のいずれかで行われる。
(1)被写体の静的な特徴量に基づく分類。
(2)被写体の動的な特徴量に基づく分類。
(3)被写体の属性に基づく分類。
(4)上記2つ以上の組み合わせによる分類。
In step S21, the 3D data processing system 20 classifies the 3D modeling data of the target subject S into any of a plurality of groups. The classification is performed from one of the following viewpoints, for example.
(1) Classification based on static feature values of the subject.
(2) Classification based on the dynamic feature amount of the subject.
(3) Classification based on subject attributes.
(4) Classification by a combination of two or more of the above.

被写体の静的な特徴量に基づく分類とは、少なくとも1種類の静的な特徴量を用いて、3Dモデリングデータを分類することをいう。1種類の静的な特徴量とは、例えば、膝の関節と足首及び股関節との位置関係の特徴量をいう。2種類の特徴量とは、例えば、膝の関節と足首及び股関節との位置関係の特徴量、並びに肘の関節と手首及び肩関節との位置関係の特徴量をいう。この例によれば、被写体の静的な特徴量から動的な特徴量を推定することができる。   The classification based on the static feature amount of the subject means that the 3D modeling data is classified using at least one type of static feature amount. One type of static feature value is, for example, a feature value of the positional relationship between the knee joint and the ankle and hip joint. The two types of feature amounts refer to, for example, the feature amount of the positional relationship between the knee joint and the ankle and hip joints, and the feature amount of the positional relationship between the elbow joint and the wrist and shoulder joints. According to this example, a dynamic feature amount can be estimated from a static feature amount of a subject.

被写体の動的な特徴量に基づく分類とは、少なくとも1種類の動的な特徴量を用いて、3Dモデリングデータを分類することをいう。分類に用いられる特徴量は、推定の対象となる個性に関する特徴量とは異なる種類の特徴量である。この例によれば、被写体の第1種類の動的な特徴量から第2種類の動的な特徴量を推定することができる。例えば、推定の対象となる個性(第2種類の動的な特徴量の一例)がジャンプの動作における膝の最高位置である場合、分類に用いられる特徴量は、歩く動作における膝の最高位置(第1種類の動的な特徴量の一例)である。   The classification based on the dynamic feature amount of the subject means that the 3D modeling data is classified using at least one type of dynamic feature amount. The feature quantity used for classification is a different kind of feature quantity from the feature quantity related to the individuality to be estimated. According to this example, it is possible to estimate the second type of dynamic feature amount from the first type of dynamic feature amount of the subject. For example, when the individuality to be estimated (an example of the second type of dynamic feature value) is the highest position of the knee in the jump motion, the feature value used for the classification is the highest position of the knee in the walking motion ( An example of the first type of dynamic feature amount).

被写体の属性に基づく分類とは、少なくとも1種類の被写体の属性を用いて、3Dモデリングデータを分類することをいう。被写体の属性とは、例えば、被写体の年齢、性別、人種、国籍、職業、又は既往歴をいう。この例によれば、被写体の属性から動的な特徴量を推定することができる。   Classification based on subject attributes refers to classifying 3D modeling data using at least one subject attribute. The attribute of the subject means, for example, the age, sex, race, nationality, occupation, or past history of the subject. According to this example, a dynamic feature amount can be estimated from the attribute of the subject.

上記2つ以上の組み合わせによる分類とは、静的な特徴量に基づく分類、動的な特徴量に基づく分類、及び被写体の属性に基づく分類のうち2つ以上の組み合わせを用いた分類をいう。この例によれば、より多様な推定を行うことができる。   The classification based on the combination of two or more means a classification using a combination of two or more of a classification based on a static feature quantity, a classification based on a dynamic feature quantity, and a classification based on an attribute of a subject. According to this example, more various estimations can be performed.

ここでは、一例として、(4)の組み合わせによる分類が用いられる例を説明する。具体的には、3Dモデリングデータは、まず被写体の属性に基づいて分類され(第1段の分類)、さらに、被写体の静的な特徴量に基づいて分類される(第2段の分類)。被写体の属性に基づく分類は、被写体の年齢及び性別に基づく分類である。この例では、ボーン構造の標準モデルを選択する際に用いられた属性が、そのまま3Dモデリングデータの分類に用いられる。すなわち、第1段の分類において、3Dモデリングデータの分類とボーン構造の標準モデルとは一対一に対応する。   Here, as an example, an example in which classification based on the combination of (4) is used will be described. Specifically, the 3D modeling data is first classified based on the attributes of the subject (first level classification), and further classified based on the static feature amount of the subject (second level classification). The classification based on the attribute of the subject is a classification based on the age and sex of the subject. In this example, the attribute used when selecting the bone structure standard model is used as it is for classification of 3D modeling data. That is, in the first stage classification, the classification of 3D modeling data and the standard model of the bone structure correspond one-to-one.

図10は、3Dモデリングデータの分類を例示する図である。図10は、第2段の分類を示す。この例において、第2段の分類は、N種類の特徴量を用いて行われる。具体的には、3Dデータ処理システム20は、各特徴量を座標軸としたN次元空間において各3Dモデリングデータをプロットし、このプロット群を数学的アルゴリズムに従ってクラスタリング(グループ化)する。ここでは説明を簡単にするため、N=2の例を示す。すなわち、第2段の分類は、特徴量A及び特徴量Bという、2種類の特徴量を用いて行われる。一例において、特徴量Aは膝に関する特徴量であり、特徴量Bは胸椎に関する特徴量である。この図は、縦軸に特徴量Aを、横軸に特徴量Bをとった2次元座標に、各3Dモデリングデータをプロットしたものである。1つのプロットは1つの3Dモデリングデータに対応する。例えば過去に1万人の3Dモデリングデータ及び特徴量が得られているとすると、1万個のプロットが得られる。3Dデータ処理システム20は、これらのプロットを、最短距離法又はk平均法など既知のクラスタリング手法を用い、部分集合に分割すなわちグループ化する。図10の例において、これらのプロットは、グループG1〜G5の5つのグループに分類される。   FIG. 10 is a diagram illustrating classification of 3D modeling data. FIG. 10 shows the second stage classification. In this example, the second-stage classification is performed using N types of feature amounts. Specifically, the 3D data processing system 20 plots each 3D modeling data in an N-dimensional space with each feature amount as a coordinate axis, and clusters (groups) the plot group according to a mathematical algorithm. Here, for simplicity of explanation, an example of N = 2 is shown. That is, the second-stage classification is performed using two types of feature amounts, that is, feature amount A and feature amount B. In one example, the feature value A is a feature value related to the knee, and the feature value B is a feature value related to the thoracic vertebra. In this figure, each 3D modeling data is plotted on two-dimensional coordinates with the feature amount A on the vertical axis and the feature amount B on the horizontal axis. One plot corresponds to one 3D modeling data. For example, if 3D modeling data and feature quantities of 10,000 people have been obtained in the past, 10,000 plots can be obtained. The 3D data processing system 20 divides or groups these plots into subsets using a known clustering method such as the shortest distance method or the k-means method. In the example of FIG. 10, these plots are classified into five groups G1 to G5.

例えば、既存の被写体の3Dモデリングデータについて図10に例示した分類が得られている場合、3Dデータ処理システム20は、対象被写体Sの3Dモデリングデータのプロットと最も距離の近い既存のプロットを特定し、対象被写体Sの3Dモデリングデータを、その既存のプロットと同じグループに分類する。あるいは、3Dデータ処理システム20は、対象被写体Sの3Dモデリングデータ及び既存の3Dモデリングデータを再度、クラスタリング手法を用いて分類し、対象被写体Sの3Dモデリングデータがどのグループに属するか判断する。   For example, when the classification illustrated in FIG. 10 is obtained for the 3D modeling data of the existing subject, the 3D data processing system 20 specifies an existing plot that is closest to the plot of the 3D modeling data of the target subject S. The 3D modeling data of the target subject S is classified into the same group as the existing plot. Alternatively, the 3D data processing system 20 again classifies the 3D modeling data of the target subject S and the existing 3D modeling data using a clustering method, and determines to which group the 3D modeling data of the target subject S belongs.

既に説明したように第1段の分類はボーン構造の標準モデル毎に行われているので、第2段の分類は、標準モデル毎に行わることに等しい。例えば、対象被写体Sが成人男子である場合、既存の被写体を含む成人男子の母集団に対してクラスタリング手法が適用され、得られた結果を用いて対象被写体Sの3Dモデリングデータが分類される。   As already described, since the first-stage classification is performed for each standard model of the bone structure, the second-stage classification is equivalent to being performed for each standard model. For example, when the target subject S is an adult male, the clustering technique is applied to the adult male population including the existing subject, and the 3D modeling data of the target subject S is classified using the obtained result.

再び図9を参照する。ステップS22において、3Dデータ処理システム20は、対象被写体Sの3Dモデリングデータの個性(すなわち対象被写体Sの個性)を、分類に基づいて推定する。この動きの例において個性とは3Dモデルの特徴点の(変位の)軌跡を定義するための情報をいい、より詳細には3Dモデルを歩かせたときの膝及び手先の最高位置をいう。この例の個性データは、歩行動作における膝及び手先の最高位置を示すデータである。あるいは、個性データは、肘及び手先の最高位置に加え、中間状態における位置を示すデータを含んでもよい。   Refer to FIG. 9 again. In step S22, the 3D data processing system 20 estimates the individuality of the 3D modeling data of the target subject S (that is, the individuality of the target subject S) based on the classification. In this example of movement, individuality refers to information for defining a trajectory (displacement) of feature points of the 3D model, and more specifically, the highest positions of the knee and the hand when the 3D model is walked. The personality data in this example is data indicating the highest positions of the knee and the hand in the walking motion. Alternatively, the personality data may include data indicating the position in the intermediate state in addition to the highest positions of the elbow and the hand.

図11は、3Dモデリングデータの動きを例示する図である。この例は、3Dモデリングデータが歩いているときのボーンの相対的な位置関係を示している。図11(A)は基本姿勢を示す。図11(B)は左足を持ち上げた姿勢を示す。図11(C)は左足を地面に下ろした姿勢を示す。図11(D)は右足を持ち上げた姿勢を示す。図11(E)は右足を下ろした姿勢を示す。これらの姿勢を繰り返し3Dモデリングデータに取らせることにより、3Dモデルを歩かせることができる。図11(A)〜(E)はいわゆるキーフレームに相当し、キーフレーム間の姿勢は補間により計算される。キーフレームの姿勢は、標準モデル毎に定義されており、3Dデータ処理システム20においてあらかじめ記憶されている。   FIG. 11 is a diagram illustrating the movement of 3D modeling data. This example shows the relative positional relationship of bones when 3D modeling data is walking. FIG. 11A shows a basic posture. FIG. 11B shows a posture in which the left foot is lifted. FIG. 11C shows a posture in which the left foot is lowered on the ground. FIG. 11D shows a posture in which the right foot is lifted. FIG. 11E shows a posture in which the right foot is lowered. By repeatedly taking these postures in the 3D modeling data, the 3D model can be walked. 11A to 11E correspond to so-called key frames, and the posture between the key frames is calculated by interpolation. The posture of the key frame is defined for each standard model and is stored in advance in the 3D data processing system 20.

この例において、以下のデータが個性として定義される。
(1)図11(B)の姿勢における左膝の位置及び右手先の位置。
(2)図11(D)の姿勢における右膝の位置及び左手先の位置。
より詳細には、標準モデルに対して定義されたキーフレームにおける特徴点の位置からのずれ(差)が個性として定義される。例えば、標準モデルの図11(B)の姿勢における左膝の位置P2sからのずれベクトルd(P2)が個性データの一例である。
In this example, the following data is defined as individuality:
(1) The position of the left knee and the position of the right hand in the posture of FIG.
(2) The position of the right knee and the position of the left hand in the posture of FIG.
More specifically, the deviation (difference) from the position of the feature point in the key frame defined for the standard model is defined as individuality. For example, the deviation vector d (P2) from the left knee position P2s in the posture of the standard model in FIG. 11B is an example of individuality data.

3Dデータシステム1に記憶されている3Dモデリングデータの一部については、3Dモデリングを生成するための撮影の際、又は別のタイミングで、被写体の動きが実際に撮影される。以下、実際の動きが撮影された被写体を「特定被写体」という。すなわち、特定被写体の個性データは、推定されたものではなく、実測されたものである。例えば、3Dデータ入力システム10は、特定被写体が歩いている様子を撮影し、図11に例示したキーフレームに相当する画像(各々ポーズが異なる複数の撮影画像の一例)を取得する。3Dデータ処理システム20は、こうして得られた動きのデータから、各グループを代表する動きのデータを決定する。こうしてグループ毎に、そのグループを代表する個性データ(代表個性データ)が得られる。   For a part of the 3D modeling data stored in the 3D data system 1, the movement of the subject is actually shot at the time of shooting for generating the 3D modeling or at another timing. Hereinafter, a subject on which an actual movement is photographed is referred to as a “specific subject”. That is, the personality data of the specific subject is actually estimated, not estimated. For example, the 3D data input system 10 captures a situation where a specific subject is walking, and acquires an image corresponding to the key frame illustrated in FIG. 11 (an example of a plurality of captured images with different poses). The 3D data processing system 20 determines motion data representing each group from the motion data thus obtained. Thus, for each group, individuality data representing the group (representative individuality data) is obtained.

グループを代表する個性データは、例えば、そのグループに含まれる特定被写体の中からランダムに選択された被写体の個性データである。あるいは、グループを代表する個性データは、そのグループに含まれる特定被写体のうち、N次元座標空間においてそのグループの中心座標に最も近い位置にプロットされている被写体の個性データである。さらにあるいは、グループを代表する個性データは、そのグループに含まれる複数の特定被写体の個性データの平均値等の統計的代表値である。   Individuality data representing a group is, for example, individuality data of a subject randomly selected from specific subjects included in the group. Alternatively, personality data representing a group is personality data of a subject plotted at a position closest to the center coordinates of the group in an N-dimensional coordinate space among specific subjects included in the group. Further alternatively, the individuality data representing a group is a statistical representative value such as an average value of individuality data of a plurality of specific subjects included in the group.

3Dデータ処理システム20は、対象被写体Sの3Dモデリングデータが属するグループを代表する個性データを、対象被写体となる3Dモデリングデータの個性データとして用いる。これはすなわち、対象被写体Sの個性が、対象被写体Sの3Dモデリングデータが属するグループを代表する個性と同一であると推定することに相当する。例えば、対象となる3DモデリングデータがグループG4に属する場合、3Dデータ処理システム20は、グループG4を代表する個性データを、対象被写体Sの3Dモデリングデータの個性データとして用いることを決定する。   The 3D data processing system 20 uses the individuality data representing the group to which the 3D modeling data of the target subject S belongs as the individuality data of the 3D modeling data serving as the target subject. This corresponds to estimating that the individuality of the target subject S is the same as the individuality representing the group to which the 3D modeling data of the target subject S belongs. For example, when the target 3D modeling data belongs to the group G4, the 3D data processing system 20 determines to use the individuality data representing the group G4 as the individuality data of the 3D modeling data of the target subject S.

再び図9を参照する。ステップS23において、3Dデータ処理システム20は、推定された個性を示す個性データを、対象被写体Sの3Dモデリングデータに付加する。ここで、「付加する」とは、少なくとも両者の対応関係が分かる状態で記憶することをいう。こうして、アプリケーション30が対象被写体Sの3Dモデリングデータを利用することが可能となる。   Refer to FIG. 9 again. In step S23, the 3D data processing system 20 adds individuality data indicating the estimated individuality to the 3D modeling data of the target subject S. Here, “adding” means storing in a state in which at least the correspondence between the two is known. In this way, the application 30 can use the 3D modeling data of the target subject S.

なお、1つの3Dモデリングデータに付加される個性データは1種類に限定されない。1つの3Dモデリングデータに複数種類の個性データが付加されてもよい。例えば、ある被写体の3Dモデリングデータに対し、歩く動作に関する個性データ、ジャンプする動作に関する個性データ、パンチする動作に関する個性データ、及びキックする動作に関する個性データが付加されてもよい。あるいは、これらの動作を総合的に規定する個性データを定義してもよい。   Note that the individuality data added to one 3D modeling data is not limited to one type. A plurality of types of individuality data may be added to one 3D modeling data. For example, personality data regarding a walking motion, personality data regarding a jumping motion, personality data regarding a punching motion, and personality data regarding a kicking motion may be added to 3D modeling data of a subject. Alternatively, personality data that comprehensively defines these operations may be defined.

2−1−3.個性データ
ここまで説明した個性データはあくまで例示である。個性データとしては、上記で説明した例に代えて、又は加えて、以下のデータを含んでもよい。
2-1-3. Individuality data The individuality data described so far is merely an example. As individuality data, the following data may be included instead of or in addition to the example described above.

(1)髪の硬さ
3Dモデルが移動すると、その反動で髪が揺れる。髪の硬さは、髪の揺れ方に影響する個性データである。髪が硬いと揺れ方が小さく、髪が柔らかいと揺れ方が大きい。例えば、一部の髪の毛先の位置を特徴点として抽出すれば、特徴点の動きとして髪の硬さを表現することができる。
(1) Hair hardness When the 3D model moves, the reaction causes the hair to shake. Hair hardness is individuality data that affects the way hair sways. If the hair is hard, the way of shaking is small, and if the hair is soft, the way of shaking is large. For example, if the positions of some hair tips are extracted as feature points, the hardness of the hair can be expressed as the movement of the feature points.

(2)まばたき
まばたきの仕方にも個性がある。例えば、一度に複数回のまばたきをまとめてする者、まばたきの速度が遅い者、又はまぶたを閉じた状態を保持する時間が長い者等がいる。例えば、まぶたの下端を特徴点として抽出すれば、特徴点の動きとしてまばたきの仕方を表現することができる。
(2) Blink The method of blinking also has personality. For example, there are those who blink a plurality of times at once, those who have a slow blinking speed, and those who have a long time to keep their eyelids closed. For example, if the lower end of the eyelid is extracted as a feature point, the manner of blinking can be expressed as the movement of the feature point.

(3)表情
笑顔等の表情にも個性がある。図12は、顔面から抽出される特徴点(図中の●)を例示する図である。例えば、口角、目尻、表情筋の端部を特徴点として抽出すれば、特徴点の動きとして表情を表現することができる。
(3) Facial expressions Smiles and other facial expressions are also unique. FIG. 12 is a diagram illustrating feature points (● in the figure) extracted from the face. For example, if the corners of the mouth, the corners of the eyes, and the ends of facial muscles are extracted as feature points, the facial expression can be expressed as the movement of the feature points.

(4)音声
個性データは音声データを含んでもよい。音声データは3Dモデリングデータから抽出される特徴点の奇跡に関する情報を含んでいないが、音声は被写体の声帯の振動によって生じるものである点、及び時間変化を伴う点において、被写体の動的な個性を示しているといえる。音声は被写体の身体的な特徴や属性と相関している場合があり(少年の声は高い等)、個性データの推定とも相性が良い。
(4) Voice The personality data may include voice data. The audio data does not include information on the miracle of the feature points extracted from the 3D modeling data, but the dynamic personality of the subject in that the audio is caused by the vibration of the subject's vocal cords and is accompanied by a time change. It can be said that it shows. The voice may correlate with the physical characteristics and attributes of the subject (the boy's voice is high, etc.), and is compatible with the estimation of individuality data.

(5)皮膚の状態
皮膚の張りや弛みといった状態は、比較的長い時間スケール(数十年単位)で変化する動的な個性であるといえる。皮膚の状態の変化は、成長や老化を示しているともいえる。例えば、顔の凹凸から特徴点を抽出すれば、特徴点の時間変化として成長や老化を表現することができる。
(5) Skin condition Skin tension and looseness are dynamic personalities that change on a relatively long time scale (decades). It can be said that changes in the skin condition indicate growth and aging. For example, if a feature point is extracted from the unevenness of the face, growth and aging can be expressed as a time change of the feature point.

(6)動作の癖
歩く、走る、といった標準的な動作における個性とは別の動作、例えば、髪をかき上げる、頭をかく、鼻を触る、貧乏揺すりをする等の動作が被写体の個性を表すことがある。これらの動作もデータ化することができる。
(6) Movement habits Movements other than the individuality in standard movements such as walking and running, for example, movements such as scratching hair, scratching the head, touching the nose, shaking poorly, etc., represent the individuality of the subject. Sometimes. These operations can also be converted into data.

(7)視点の位置、画角
アプリケーション30において、3Dモデルは仮想空間に配置される。仮想空間には仮想カメラが設置される。アプリケーション30は、この仮想カメラにより取得された2次元画像を表示装置に表示する。仮想カメラはあくまで仮想的なものであるので、理論上、アプリケーション30は、視点の位置及び画角を任意に設定することができる。しかし、アプリケーションによっては、3Dモデルを基準とする、仮想カメラの相対的な位置を制限したいという要望がある。具体例としては、例えば女性アイドル歌手の3Dモデルを取り扱う場合において、3Dモデルの腰より下に仮想カメラが来ないように制限したいという要望がある。あるいは、仮想カメラの画角をある範囲を超えて小さくできないようにしたいという要望がある。これらの要望に応えるため、仮想カメラの視点の(3Dモデルに対する相対的な)位置を制限するためのデータを個性データとして用いることができる。この情報により、ユーザに見せない領域を3Dモデル毎に定義することができる。
(7) Viewpoint Position and Angle of View In the application 30, the 3D model is placed in the virtual space. A virtual camera is installed in the virtual space. The application 30 displays the two-dimensional image acquired by the virtual camera on the display device. Since the virtual camera is only virtual, the application 30 can theoretically set the viewpoint position and the angle of view arbitrarily. However, there is a demand for limiting the relative position of the virtual camera based on the 3D model depending on the application. As a specific example, for example, when handling a 3D model of a female idol singer, there is a desire to restrict the virtual camera from coming below the waist of the 3D model. Alternatively, there is a desire to prevent the angle of view of the virtual camera from being reduced beyond a certain range. In order to meet these demands, data for limiting the position of the viewpoint of the virtual camera (relative to the 3D model) can be used as individuality data. With this information, it is possible to define a region that is not shown to the user for each 3D model.

(8)可動制限
関節の可動範囲は被写体の個性を表している。例えば、体操選手は両脚(股関節)を180°開くことができるが、一般人は90°程度しか開くことができない。各関節の可動範囲をデータ化すれば、個性データとして用いることができる。この場合において、関節の可動範囲は、現実の可動範囲と別の事情により制限されてもよい。例えば、特定の3Dモデルにおいては、股関節の可動範囲は60°程度に制限される。このように、関節の可動範囲を制限するためのデータを個性データとして用いることができる。
(8) Movable restriction The movable range of the joint represents the individuality of the subject. For example, a gymnast can open both legs (hip joints) 180 °, but a general person can open only about 90 °. If the movable range of each joint is converted into data, it can be used as individuality data. In this case, the movable range of the joint may be limited due to circumstances other than the actual movable range. For example, in a specific 3D model, the movable range of the hip joint is limited to about 60 °. Thus, data for limiting the movable range of the joint can be used as individuality data.

2−1−4.3Dモデリングデータの利用
図13は、3Dモデリングデータを利用する処理の詳細を例示する図である。図13の処理は、例えば、アプリケーション30のユーザが、3Dモデリングデータの取得を指示したことを契機として開始される。
2-1-4. Use of 3D Modeling Data FIG. 13 is a diagram illustrating details of processing using 3D modeling data. The process in FIG. 13 is started when, for example, the user of the application 30 instructs acquisition of 3D modeling data.

ステップS31において、アプリケーション30は、3Dデータ処理システム20に3Dモデリングデータを要求する。この要求は、3Dモデリングデータを特定する情報、例えば被写体のIDを含む。あるいは、この要求は、3Dデータシステム1が記憶している3Dモデリングデータから所望のデータを検索するための検索キーを含んでいてもよい。この場合、3Dデータ処理システム20は、検索キーに適合する3Dモデリングデータの一覧をアプリケーション30に送信する。アプリケーション30は、この一覧の中から一の3Dモデリングデータを選択する。選択された3Dモデリングデータを特定する情報は、3Dデータ処理システム20に出力される。   In step S31, the application 30 requests 3D modeling data from the 3D data processing system 20. This request includes information for specifying the 3D modeling data, for example, the ID of the subject. Alternatively, this request may include a search key for searching for desired data from the 3D modeling data stored in the 3D data system 1. In this case, the 3D data processing system 20 transmits a list of 3D modeling data that matches the search key to the application 30. The application 30 selects one 3D modeling data from this list. Information identifying the selected 3D modeling data is output to the 3D data processing system 20.

この要求は、3Dモデリングデータを特定する情報に加え、個性データを特定する情報を含んでもよい。1つの3Dモデリングデータに複数種類の個性データが付加されている場合において、特定のアプリケーション30がこれら複数種類の個性データを全て必要としているとは限らない。そこで、アプリケーション30は自身が必要とする個性データをのみを3Dデータ処理システム20に要求する。   This request may include information specifying personality data in addition to information specifying 3D modeling data. In the case where plural types of individuality data are added to one 3D modeling data, the specific application 30 does not necessarily require all the plural types of individuality data. Therefore, the application 30 requests the 3D data processing system 20 only for the personality data that it needs.

ステップS32において、3Dデータ処理システム20は、要求された3Dモデリングデータ及び個性データを、要求元のアプリケーション30に出力する。アプリケーション30が特定の個性データのみを要求している場合、3Dデータ処理システム20は、3Dモデリングデータに加え、要求された個性データのみを出力する。   In step S <b> 32, the 3D data processing system 20 outputs the requested 3D modeling data and individuality data to the requesting application 30. When the application 30 requests only specific personality data, the 3D data processing system 20 outputs only the requested personality data in addition to the 3D modeling data.

ステップS33において、アプリケーション30は、3Dデータ処理システム20から取得した3Dモデリングデータ及び個性データを用いて製品又はサービスを提供する。3Dデータシステム1において、異なる種類のアプリケーションが、共通の3Dモデリングデータ及び個性データを用いることができる。アプリケーション30は、例えば、IDカード、名刺、ヴァーチャルコミュニケーション、ビデオゲーム、着せ替え(試着)、採寸、ヴァーチャルシアター、フィットネス、医療、及び映画製作のうち少なくとも1つを含む。アプリケーション30は、スマートフォン等の携帯端末で動作してもよいし、据え置きのパーソナルコンピュータで動作してもよい。   In step S33, the application 30 provides a product or service using the 3D modeling data and the personality data acquired from the 3D data processing system 20. In the 3D data system 1, different types of applications can use common 3D modeling data and individuality data. The application 30 includes, for example, at least one of an ID card, a business card, virtual communication, a video game, dress-up (try-on), measurement, virtual theater, fitness, medical care, and movie production. The application 30 may operate on a mobile terminal such as a smartphone, or may operate on a stationary personal computer.

IDカードは、ユーザの身分証明に用いられるアプリケーションである。IDカードにおいて、ユーザの写真の代わりに3Dモデルが表示される。   The ID card is an application used for user identification. In the ID card, the 3D model is displayed instead of the user's photograph.

名刺は、ユーザの個人情報を他のユーザに伝達するためのアプリケーションである。名刺のデータには、ユーザの3Dモデリングデータが含まれる。例えばユーザUAの名刺データは、別のユーザUBに出力される。ユーザUBは自分のコンピュータ装置においてユーザUAの3Dモデルを含む名刺データを閲覧することができる。   A business card is an application for transmitting a user's personal information to other users. The business card data includes user 3D modeling data. For example, the business card data of the user UA is output to another user UB. The user UB can view business card data including the 3D model of the user UA on his computer device.

ヴァーチャルコミュニケーションは、仮想空間において他のユーザとコミュニケーションを行うためのアプリケーションである。仮想空間において、各ユーザはいわゆるアバターを用いて表示される。このアバターとして本実施形態に係る3Dモデルが用いられる。ヴァーチャルコミュニケーションを用いれば、例えば遠隔地にいる複数のユーザが会議をすることができる。会議において、各ユーザのアバターは個性を有しており、リアリティが増す。   Virtual communication is an application for communicating with other users in a virtual space. In the virtual space, each user is displayed using a so-called avatar. As this avatar, the 3D model according to the present embodiment is used. By using virtual communication, for example, a plurality of users at remote locations can hold a conference. In a meeting, each user's avatar has individuality, and reality increases.

ビデオゲームにおいて、ゲーム中に登場するキャラクターとして、本実施形態に係る3Dモデルが用いられる。例えば、格闘ゲームにおいて、プレイヤーは、自身の3Dモデルをプレイヤーキャラクターとして用いることができる。この3Dモデルは、そのプレイヤーに対応する動きの特徴(例えば、走り方、ジャンプの仕方等)を有している。   In the video game, the 3D model according to the present embodiment is used as a character appearing in the game. For example, in a fighting game, a player can use his or her 3D model as a player character. This 3D model has movement characteristics (for example, how to run, how to jump, etc.) corresponding to the player.

着せ替えは、仮想空間において人体モデルに服を着せるアプリケーションである。この人体モデルとして、本実施形態に係る3Dモデルが用いられる。人体モデルは服を着た状態で仮想空間内を移動する(いわゆるランウェイウォーク)。このとき、この人体モデルは、そのユーザに対応する動きの特徴(例えば、歩き方)を有している。   Dress-up is an application for dressing a human body model in a virtual space. As this human body model, the 3D model according to the present embodiment is used. The human body model moves in the virtual space with clothes (so-called runway walk). At this time, the human body model has movement characteristics (for example, how to walk) corresponding to the user.

採寸は、被写体Sの体のサイズ(身長、胸囲、胴囲等)を測定するアプリケーションである。   Measuring is an application for measuring the body size (height, chest circumference, waist circumference, etc.) of the subject S.

バーチャルシアターは、仮想空間において、仮想キャラクター(アバター)に実演(歌唱、演劇、ダンス等)を行わせ、その実演を鑑賞するアプリケーションである。キャラクターはそれぞれ個性を有する。実演は、例えば仮想空間上のステージで行われる。ユーザは、仮想カメラで撮影されたこの実演を鑑賞することができる。仮想カメラ(視点)の位置は例えばユーザの指示に応じて制御される。ユーザは、特定の演者に仮想カメラを寄せたり、ステージを俯瞰したり、仮想カメラの位置を自在に制御できる。   A virtual theater is an application that allows a virtual character (avatar) to perform a performance (singing, drama, dance, etc.) in a virtual space and appreciate the performance. Each character has its own personality. The demonstration is performed on a stage in a virtual space, for example. The user can appreciate this demonstration taken with the virtual camera. The position of the virtual camera (viewpoint) is controlled in accordance with a user instruction, for example. The user can bring a virtual camera to a specific performer, overlook the stage, and freely control the position of the virtual camera.

フィットネスは運動の前後において被写体の体を3Dモデル化して記録するアプリケーションである。記憶された3Dモデルを比較することにより、運動により筋肉が増強された部分や、余分なぜい肉が落ちた部分を視覚的に確認することができる。   Fitness is an application that records a subject's body as a 3D model before and after exercise. By comparing the stored 3D models, it is possible to visually confirm a portion where the muscle has been strengthened by exercise or a portion where extra meat has fallen.

医療は治療の前後において被写体の体を3Dモデル化して記録するアプリケーションである。記憶された3Dモデルを比較することにより、治療、投薬、リハビリの効果を視覚的に確認することができる。   Medical treatment is an application that records a subject's body as a 3D model before and after treatment. By comparing the stored 3D models, the effects of treatment, medication, and rehabilitation can be visually confirmed.

映画製作は、映画の中に3Dモデルを登場させるアプリケーションである。例えば、俳優の3Dモデリングデータ及び個性データを取得しておけば、実際に俳優に演技をさせなくても、その俳優を映画の中野キャラクターとして登場させることができる。   Movie production is an application that allows a 3D model to appear in a movie. For example, if the actor's 3D modeling data and individuality data are acquired, the actor can appear as a Nakano character in the movie without actually acting the actor.

2−2.動作例2
動作例1においては、対象被写体Sの個性データが推定される例を説明した。この例において、個性データの推定は行われない。個性データは3Dデータシステム1においてあらかじめ用意されており、ユーザ(例えば対象被写体S本人)が、あらかじめ用意された複数の個性データの中から所望のデータを選択する。
2-2. Operation example 2
In the operation example 1, the example in which the individuality data of the target subject S is estimated has been described. In this example, no personality data is estimated. Individuality data is prepared in advance in the 3D data system 1, and a user (for example, the subject S himself / herself) selects desired data from among a plurality of individuality data prepared in advance.

3Dデータシステム1において、個性データには、検索のためのタグが付与されている。このタグは、例えば、年齢、性別、人種、国籍、職業、又は既往歴を含む。ユーザは、これらの属性を検索キーとして個性データを検索することができる。例えば、3Dデータシステム1は、指定された個性データを対象被写体Sの3Dモデリングデータに当てはめてプレビュー表示してもよい。   In the 3D data system 1, tags for searching are assigned to the individuality data. This tag includes, for example, age, sex, race, nationality, occupation, or past history. The user can search individuality data using these attributes as search keys. For example, the 3D data system 1 may apply the specified individuality data to the 3D modeling data of the subject S and display the preview.

3Dデータシステム1においてあらかじめ用意される個性データには、例えば有名スポーツ選手や俳優の個性データが含まれてもよい。この場合、個性データには、スポーツ選手や俳優を特定する識別子(名前)が付与されている。プロサッカー選手がボールをキックする際の動作に関する個性データを用いれば、ユーザは、例えば、サッカーゲームにおいて、自分の撮影画像から得られた3Dモデルをプレイヤーのキャラクターとして登場させ、このキャラクターに有名プロサッカー選手のフォームでキックをさせることができる。   The personality data prepared in advance in the 3D data system 1 may include, for example, personality data of famous athletes and actors. In this case, the personality data is given an identifier (name) that identifies a sports player or an actor. Using personality data on the action of a professional soccer player kicking a ball, for example, in a soccer game, a user can make a 3D model obtained from his captured image appear as a player's character and give this character a famous professional You can kick in the form of a soccer player.

この例によれば、個性を推定することなく、3Dモデリングデータに個性データを付加することができる。なお、動作例2は、動作例1と併用されてもよい。例えば、3Dデータシステム1は、推定による個性データの付加とあらかじめ用意された個性データの付加のいずれかをユーザに選択させ、ユーザに選択された手法で個性データを付加してもよい。   According to this example, individuality data can be added to 3D modeling data without estimating individuality. The operation example 2 may be used together with the operation example 1. For example, the 3D data system 1 may cause the user to select either addition of individuality data by estimation or addition of individuality data prepared in advance, and add individuality data by a method selected by the user.

3.変形例
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。実施形態の少なくとも一部及び以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Two or more of the embodiments and the following modifications may be used in combination.

3−1.変形例1
図14は、変形例1に係る3Dデータシステム1の概略を示す図である。この例において、3Dデータ処理システム20は、3Dモデリングデータ、ボーンデータ、及びメタデータのセットを複数、記憶する。ボーンデータは、3Dモデルのボーン構造を示すデータである。ボーンデータは、例えば被写体を複数のポーズで撮影することにより実測されたものであってもよいし、あらかじめ用意されたボーン構造の標準モデルを3Dモデルに合わせて調整することにより得られたものでもよい。メタデータは、3Dモデルに付随するデータをいい、例えば、被写体の属性、撮影装置の属性、音声、コピー制限等を示すデータである。実施形態で例示した個性データ及び属性データは、メタデータの一例であるということもできる。なお、メタデータは、3Dモデル動的な個性を示す情報を含んでいなくてもよい。この場合においても、3Dデータシステム1は、アプリケーション30に対し、3Dモデリングデータ、ボーンデータ、及びメタデータのセットを容易に提供することができるという効果を奏する。
3-1. Modification 1
FIG. 14 is a diagram illustrating an outline of the 3D data system 1 according to the first modification. In this example, the 3D data processing system 20 stores a plurality of sets of 3D modeling data, bone data, and metadata. The bone data is data indicating the bone structure of the 3D model. For example, the bone data may be actually measured by photographing a subject in a plurality of poses, or may be obtained by adjusting a standard model of a bone structure prepared in advance according to a 3D model. Good. Metadata refers to data associated with the 3D model, and is data indicating, for example, subject attributes, imaging device attributes, audio, copy restrictions, and the like. It can be said that the individuality data and the attribute data exemplified in the embodiment are examples of metadata. Note that the metadata does not have to include information indicating the 3D model dynamic personality. Even in this case, the 3D data system 1 has an effect of easily providing the application 30 with a set of 3D modeling data, bone data, and metadata.

3Dモデリングデータ、ボーンデータ、及びメタデータのセットは、3Dデータ処理システム20においてあらかじめ決められていてもよい。あるいは、3Dモデリングデータ、ボーンデータ、及びメタデータのセットは、アプリケーション30又はユーザの要求に応じて組み替えられてもよい。例えば、メタデータが関節の可動範囲を制限するデータ(以下「制限データ」という)及び音声データを含む場合において、3Dデータ処理システム20は、制限データ及び音声データのテンプレートを複数、記憶している。3Dデータ処理システム20は、ユーザにより選択された制限データ及び音声データを、指定された3Dモデリングデータに付加する。この例によれば、ユーザが所望のメタデータを選択し、3Dモデリングデータに付加することができる。なお、図14の例において、3Dモデリングデータを含むデータセットは、ボーンデータを含んでいなくてもよい。一例において、3Dデータ処理システム20は、3Dモデリングデータ及びメタデータ(例えば制限データ)のみを記憶していてもよい。   The set of 3D modeling data, bone data, and metadata may be predetermined in the 3D data processing system 20. Alternatively, the set of 3D modeling data, bone data, and metadata may be rearranged according to the application 30 or user request. For example, when the metadata includes data that restricts the movable range of the joint (hereinafter referred to as “restriction data”) and audio data, the 3D data processing system 20 stores a plurality of templates of restriction data and audio data. . The 3D data processing system 20 adds the restriction data and audio data selected by the user to the designated 3D modeling data. According to this example, the user can select desired metadata and add it to the 3D modeling data. In the example of FIG. 14, the data set including 3D modeling data may not include bone data. In one example, the 3D data processing system 20 may store only 3D modeling data and metadata (eg, restriction data).

3−2.変形例2
推定部24が個性を推定する方法は実施形態において例示されたものに限定されない。分類後の各グループは、そのグループを代表する個性データ(代表個性データ)に加え、そのグループを代表する特徴量(代表特徴量)を有してもよい。3Dデータ処理システム20は、補正部(図示略)を有する。この補正部は、代表特徴量と対象被写体Sの3Dモデリングデータから得られた特徴量との差に応じて、代表個性データを補正する。例えば、補正部は、代表個性データに対し、代表特徴量と対象被写体Sの3Dモデリングデータから得られた特徴量との差及び係数を乗算した結果(ベクトル)を加算することにより代表個性データを補正する。この例によれば、例えば、静的な特徴量の差を用いて動的な個性データを補正することができる。
3-2. Modification 2
The method by which the estimation unit 24 estimates the individuality is not limited to that exemplified in the embodiment. Each group after classification may have a feature amount (representative feature amount) representing the group in addition to the individuality data representing the group (representative individuality data). The 3D data processing system 20 includes a correction unit (not shown). The correction unit corrects the representative personality data according to the difference between the representative feature amount and the feature amount obtained from the 3D modeling data of the target subject S. For example, the correcting unit adds the result (vector) obtained by multiplying the representative individuality data by the difference between the representative feature amount and the feature amount obtained from the 3D modeling data of the target subject S and the coefficient (vector). to correct. According to this example, for example, dynamic personality data can be corrected using a difference in static feature values.

3−3.変形例3
分類部23による分類が複数のレベルに区分されてもよい。これら複数のレベルは、各々、分類後のグループの数が異なる。例えば、同じ種類の特徴量に基づく分類が、低レベル(グループ数が少ない)、中レベル(グループ数が中くらい)、及び高レベル(グループ数が多い)に区分される。これら複数の区分のうちどの区分の分類を用いるか、例えば、ユーザの指示により、又はアプリケーション30の要求により決定される。推定部24は、例えば低レベル(第1レベルの一例)の分類が用いられる場合、変形例2のように、グループの代表特徴量と対象被写体Sの特徴量との差に基づいて個性データを推定(補正)する。推定部24は、例えば高レベル(第2レベルの一例)の分類が用いられる場合、グループの代表個性データをそのまま、対象被写体Sの3Dモデルの個性データとして用いる。
3-3. Modification 3
The classification by the classification unit 23 may be divided into a plurality of levels. Each of these multiple levels has a different number of groups after classification. For example, the classification based on the same type of feature amount is classified into a low level (small number of groups), a medium level (medium number of groups), and a high level (large number of groups). Which of the plurality of categories is used is determined by, for example, a user instruction or a request from the application 30. For example, when the low-level (an example of the first level) classification is used, the estimation unit 24 obtains individuality data based on the difference between the representative feature amount of the group and the feature amount of the target subject S as in Modification 2. Estimate (correct). For example, when high-level (an example of the second level) classification is used, the estimation unit 24 uses the representative individuality data of the group as it is as the individuality data of the 3D model of the target subject S.

3−4.変形例4
実施形態において個性データは動的な特徴量の標準データからのずれベクトルとして定義される例を説明した。しかし、個性データはずれベクトルに限定されず,動的な特徴量そのもの(絶対値)を表すデータであってもよい。この場合、標準データを定義する必要がない。なお、ずれベクトルを用いる場合は、アプリケーション30側で標準データを保持していれば、標準データ及びずれベクトルを伝送する場合と比較して、ずれベクトルのみを送信すればよいので、システム間で伝送されるデータ量を削減することができる。
3-4. Modification 4
In the embodiment, the example in which the individuality data is defined as a deviation vector from the standard data of the dynamic feature amount has been described. However, the individuality data is not limited to a deviation vector, and may be data representing a dynamic feature amount itself (absolute value). In this case, there is no need to define standard data. When using the deviation vector, if the standard data is held on the application 30 side, it is only necessary to transmit the deviation vector as compared with the case of transmitting the standard data and the deviation vector. The amount of data to be reduced can be reduced.

3−5.変形例5
3Dモデリングデータに基づく分類が行われる場合において、グループの代表個性データは実測されたデータに限定されない。推定により得られた個性データが、グループの代表個性データとして用いられてもよい。
3-5. Modification 5
When classification based on 3D modeling data is performed, the representative individuality data of the group is not limited to actually measured data. Individuality data obtained by estimation may be used as representative individuality data of a group.

3−6.他の変形例
3Dデータシステム1において、3Dデータ入力システム10及び3Dデータ処理システム20における機能の分担は、図2において例示されたものに限定されない。例えば、生成部12に相当する機能が、3Dデータ処理システム20すなわちクラウドに実装されてもよい。あるいは、付加部21又は分類部23に相当する機能が、3Dデータ入力システム10に実装されてもよい。
3-6. Other Modifications In the 3D data system 1, the sharing of functions in the 3D data input system 10 and the 3D data processing system 20 is not limited to that illustrated in FIG. For example, a function corresponding to the generation unit 12 may be implemented in the 3D data processing system 20, that is, the cloud. Alternatively, a function corresponding to the addition unit 21 or the classification unit 23 may be implemented in the 3D data input system 10.

3Dデータ入力システム10、3Dデータ処理システム20、及びアプリケーション30は、それぞれ、異なる1以上のコンピュータ装置に実装されてもよいし、機能の少なくとも一部が共通のコンピュータ装置に実装されてもよい。また、物理的に複数のコンピュータ装置が、3Dデータ入力システム10、3Dデータ処理システム20、又はアプリケーション30として機能してもよい。   The 3D data input system 10, the 3D data processing system 20, and the application 30 may each be implemented in one or more different computer devices, or at least some of the functions may be implemented in a common computer device. A plurality of computer devices may function as the 3D data input system 10, the 3D data processing system 20, or the application 30.

Claims (15)

対象となる被写体の表面を撮影した撮影画像、及び基準点から前記表面までの距離を示す距離情報を取得する画像取得部と、
前記撮影画像及び前記距離情報から得られる前記対象となる被写体の3Dモデルを示す3Dモデリングデータに対し、当該3Dモデルの動的な個性を示す個性データを付加する付加部と、
前記個性データが付加された前記3Dモデリングデータを記憶する記憶部と
を有する3Dデータシステム。
A captured image obtained by photographing the surface of the subject subject, and an image obtaining unit for obtaining distance information indicating a distance from the reference point to the surface;
An adding unit for adding individuality data indicating the dynamic individuality of the 3D model to 3D modeling data indicating the 3D model of the subject subject obtained from the captured image and the distance information;
A 3D data system comprising: a storage unit that stores the 3D modeling data to which the individuality data is added.
前記3Dモデリングデータを用いて、前記対象となる被写体の個性を推定する推定部を有し、
前記付加部は、前記推定部により推定された個性を示すデータを前記個性データとして付加する
請求項1に記載の3Dデータシステム。
Using the 3D modeling data, and having an estimation unit for estimating the individuality of the subject subject,
The 3D data system according to claim 1, wherein the adding unit adds data indicating the individuality estimated by the estimating unit as the individuality data.
前記3Dモデリングデータから複数の特徴点を取得する特徴取得部と、
前記複数の特徴点の位置関係に関する特徴量を計算する計算部と
を有し、
前記推定部は、前記特徴量を用いて前記対象となる被写体の個性を推定する
請求項2に記載の3Dデータシステム。
A feature acquisition unit for acquiring a plurality of feature points from the 3D modeling data;
A calculation unit that calculates a feature amount related to a positional relationship between the plurality of feature points;
The 3D data system according to claim 2, wherein the estimation unit estimates the individuality of the subject subject using the feature amount.
前記対象となる被写体を複数のグループのいずれかに分類する分類部を有し、
前記推定部は、前記分類に基づいて前記被写体の個性を推定する
請求項2に記載の3Dデータシステム。
A classification unit that classifies the subject subject into any of a plurality of groups;
The 3D data system according to claim 2, wherein the estimation unit estimates the individuality of the subject based on the classification.
前記分類部は、
既存の複数の被写体を、当該複数の被写体の各々の撮影画像から得られた特徴量に基づいて前記複数のグループに分類し、
前記対象となる被写体を、前記既存の複数の被写体の特徴量に基づいて得られた複数のグループのいずれかに分類する
請求項4に記載の3Dデータシステム。
The classification unit includes:
Classifying the plurality of existing subjects into the plurality of groups based on the feature amounts obtained from the captured images of the plurality of subjects,
The 3D data system according to claim 4, wherein the subject subject is classified into one of a plurality of groups obtained based on feature amounts of the plurality of existing subjects.
前記特徴取得部は、前記撮影画像から前記被写体の静的な特徴量を取得し、
前記分類部は、前記静的な特徴量を用いて、前記被写体を前記複数のグループのいずれかに分類する
請求項4又は5に記載の3Dデータシステム。
The feature acquisition unit acquires a static feature amount of the subject from the captured image,
The 3D data system according to claim 4 or 5, wherein the classification unit classifies the subject into any of the plurality of groups using the static feature amount.
前記画像取得部は、前記被写体に関し、各々ポーズが異なる複数の撮影画像を取得し、
前記特徴取得部は、前記複数の撮影画像から前記被写体の動的な特徴量を取得し、
前記分類部は、前記動的な特徴量を用いて、前記被写体を前記複数のグループのいずれかに分類する
請求項4乃至6のいずれか一項に記載の3Dデータシステム。
The image acquisition unit acquires a plurality of captured images with different poses for the subject,
The feature acquisition unit acquires a dynamic feature amount of the subject from the plurality of captured images,
The 3D data system according to any one of claims 4 to 6, wherein the classification unit classifies the subject into any of the plurality of groups using the dynamic feature amount.
前記複数のグループの各々は、当該グループを代表する個性を示す代表個性データを有し、
前記推定部は、前記被写体が属するグループの代表個性データにより示される個性を、当該被写体の個性として推定する
請求項4乃至7のいずれか一項に記載の3Dデータシステム。
Each of the plurality of groups has representative personality data indicating individuality representing the group,
The 3D data system according to any one of claims 4 to 7, wherein the estimation unit estimates the individuality indicated by the representative individuality data of the group to which the subject belongs as the individuality of the subject.
前記複数のグループの各々は、当該グループを代表する特徴量を示す代表特徴量、及び当該グループを代表する個性を示す代表個性データを有し、
前記代表特徴量と前記被写体から得られた前記特徴量との差に応じて前記代表個性データを補正する補正部を有し、
前記推定部は、前記補正部により補正された前記代表個性データにより示される個性を、前記被写体の個性として推定する
請求項4乃至7のいずれか一項に記載の3Dデータシステム。
Each of the plurality of groups has a representative feature amount representing a feature amount representing the group, and representative individuality data representing individuality representing the group,
A correction unit that corrects the representative individuality data according to a difference between the representative feature amount and the feature amount obtained from the subject;
The 3D data system according to any one of claims 4 to 7, wherein the estimation unit estimates the individuality indicated by the representative individuality data corrected by the correction unit as the individuality of the subject.
前記分類部は、既存の複数の被写体を、当該複数の被写体の各々の撮影画像から得られた特徴量に基づいて前記複数のグループに分類し、
前記推定部は、前記複数のグループの各々について、当該グループに属する既存の被写体の少なくとも一部に関して取得された、各々ポーズが異なる複数の撮影画像から得られた個性データを前記代表個性データとして用いる
請求項4乃至9のいずれか一項に記載の3Dデータシステム。
The classifying unit classifies a plurality of existing subjects into the plurality of groups based on feature amounts obtained from captured images of the plurality of subjects,
For each of the plurality of groups, the estimation unit uses, as the representative individuality data, individuality data obtained from a plurality of photographed images with different poses, which are obtained for at least a part of an existing subject belonging to the group. The 3D data system according to any one of claims 4 to 9.
前記分類部は、前記分類後のグループの数がそれぞれ異なる複数のレベルの中から選択された少なくとも1つのレベルに従って前記被写体を分類し、
前記推定部は、
前記複数のレベルのうち第1レベルの分類においては、当該分類後のグループにおける前記特徴量の代表値と、前記被写体の前記特徴量との差に基づいて、前記被写体の個性を推定し、
前記第1レベルよりも前記分類後のグループの数が多い第2レベルの分類においては、当該分類後のグループを代表する個性を、前記被写体の個性を推定する
請求項4乃至10のいずれか一項に記載の3Dデータシステム。
The classification unit classifies the subject according to at least one level selected from a plurality of levels with different numbers of groups after the classification,
The estimation unit includes
In the first level classification among the plurality of levels, the individuality of the subject is estimated based on the difference between the representative value of the feature amount in the group after the classification and the feature amount of the subject.
11. The second-level classification in which the number of groups after the classification is larger than the first level, the individuality representing the group after the classification is estimated as the individuality of the subject. 11. 3D data system according to item.
被写体の表面を撮影した撮影画像、及び基準点から前記表面までの距離を示す距離情報を取得するステップと、
前記撮影画像及び前記距離情報から得られる前記被写体の3Dモデルを示す3Dモデリングデータに対し、当該3Dモデルの動的な個性データを付加するステップと、
前記個性データが付加された前記3Dモデリングデータを記憶するステップと
を有する3Dデータ処理方法。
A captured image obtained by photographing the surface of the subject, and distance information indicating a distance from the reference point to the surface;
Adding dynamic personality data of the 3D model to 3D modeling data indicating the 3D model of the subject obtained from the captured image and the distance information;
Storing the 3D modeling data to which the individuality data has been added.
対象となる被写体の表面を撮影した撮影画像、及び基準点から前記表面までの距離を示す距離情報を取得する画像取得部と、
前記撮影画像及び前記距離情報から得られる前記対象となる被写体の3Dモデルを示す3Dモデリングデータに対し、当該3Dモデルに動きを与えるためのボーン構造を示すボーンデータ及び当該3Dモデルに付随するメタデータを付加する付加部と、
前記ボーンデータ及びメタデータが付加された前記3Dモデリングデータを記憶する記憶部と
を有する3Dデータシステム。
A captured image obtained by photographing the surface of the subject subject, and an image obtaining unit for obtaining distance information indicating a distance from the reference point to the surface;
Bone data indicating a bone structure for giving motion to the 3D model and metadata associated with the 3D model with respect to 3D modeling data indicating the 3D model of the subject subject obtained from the captured image and the distance information An additional part for adding
A 3D data system comprising: a storage unit that stores the 3D modeling data to which the bone data and metadata are added.
前記メタデータは、仮想空間に位置する前記3Dモデルを表示する際に用いられる仮想カメラの位置又は画角を制限するデータを含む
請求項13に記載の3Dデータシステム。
The 3D data system according to claim 13, wherein the metadata includes data that limits a position or an angle of view of a virtual camera used when displaying the 3D model located in a virtual space.
前記メタデータは、前記3Dモデルの音声データを含む
請求項13又は14に記載の3Dデータシステム。
The 3D data system according to claim 13 or 14, wherein the metadata includes audio data of the 3D model.
JP2018532802A 2017-09-08 2017-09-08 3D data system and 3D data processing method Active JP6489726B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/032396 WO2019049298A1 (en) 2017-09-08 2017-09-08 3d data system and 3d data processing method

Publications (2)

Publication Number Publication Date
JP6489726B1 JP6489726B1 (en) 2019-03-27
JPWO2019049298A1 true JPWO2019049298A1 (en) 2019-11-07

Family

ID=65633719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018532802A Active JP6489726B1 (en) 2017-09-08 2017-09-08 3D data system and 3D data processing method

Country Status (3)

Country Link
JP (1) JP6489726B1 (en)
CN (1) CN110637324B (en)
WO (1) WO2019049298A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220395193A1 (en) * 2019-06-26 2022-12-15 Nec Corporation Height estimation apparatus, height estimation method, and non-transitory computer readable medium storing program
US20220335144A1 (en) 2019-09-05 2022-10-20 Vrc Inc 3d data system, server, and methods of handling 3d data
JP7484293B2 (en) 2020-03-25 2024-05-16 カシオ計算機株式会社 Animation generation device, animation generation method, and program
JP6826747B1 (en) * 2020-07-27 2021-02-10 株式会社Vrc Information processing device and information processing method
WO2022024199A1 (en) * 2020-07-27 2022-02-03 株式会社Vrc Information processing device, 3d model generation method, and program
CN114503167A (en) 2020-07-27 2022-05-13 株式会社威亚视 Server and information processing method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3472238B2 (en) * 2000-05-19 2003-12-02 由和 伊丹 How to provide effective physical exercise
US20020024517A1 (en) * 2000-07-14 2002-02-28 Komatsu Ltd. Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space
JP2002058045A (en) * 2000-08-08 2002-02-22 Komatsu Ltd System and method for entering real object into virtual three-dimensional space
JP2005523488A (en) * 2001-08-14 2005-08-04 パルス エンターテインメント インコーポレイテッド Automatic 3D modeling system and method
CN101515374B (en) * 2008-02-20 2010-12-01 中国科学院自动化研究所 Individualized realistic virtual character modeling method based on images
US8803889B2 (en) * 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
EP2385483B1 (en) * 2010-05-07 2012-11-21 MVTec Software GmbH Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform
JP2013200867A (en) * 2012-02-23 2013-10-03 Tokyo Kogei Univ Animation creation device and camera
JP5837860B2 (en) * 2012-06-11 2015-12-24 Kddi株式会社 Motion similarity calculation device, motion similarity calculation method, and computer program

Also Published As

Publication number Publication date
JP6489726B1 (en) 2019-03-27
CN110637324B (en) 2021-04-16
CN110637324A (en) 2019-12-31
WO2019049298A1 (en) 2019-03-14

Similar Documents

Publication Publication Date Title
JP6489726B1 (en) 3D data system and 3D data processing method
US11430169B2 (en) Animating virtual avatar facial movements
US11682155B2 (en) Skeletal systems for animating virtual avatars
US11308673B2 (en) Using three-dimensional scans of a physical subject to determine positions and/or orientations of skeletal joints in the rigging for a virtual character
US20210358214A1 (en) Matching meshes for virtual avatars
US11670032B2 (en) Pose space dimensionality reduction for pose space deformation of a virtual character
US20200005138A1 (en) Methods and systems for interpolation of disparate inputs
US11275433B2 (en) Head scan alignment using ocular registration
KR102317223B1 (en) System and method for implementing metaverse using biometric data
JP7278724B2 (en) Information processing device, information processing method, and information processing program
TW202209264A (en) Server and information processing method
US20230260156A1 (en) Methods and systems for interpolation of disparate inputs
JP6922768B2 (en) Information processing device
EP4191541A1 (en) Information processing device and information processing method
US12033263B2 (en) Using three-dimensional scans of a physical subject to determine positions and/or orientations of skeletal joints in the rigging for a virtual character
WO2024069944A1 (en) Information processing device, information processing method, and program
JP2024052519A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180621

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190225

R150 Certificate of patent or registration of utility model

Ref document number: 6489726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250