JP6593830B1 - Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus - Google Patents

Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus Download PDF

Info

Publication number
JP6593830B1
JP6593830B1 JP2019122719A JP2019122719A JP6593830B1 JP 6593830 B1 JP6593830 B1 JP 6593830B1 JP 2019122719 A JP2019122719 A JP 2019122719A JP 2019122719 A JP2019122719 A JP 2019122719A JP 6593830 B1 JP6593830 B1 JP 6593830B1
Authority
JP
Japan
Prior art keywords
data
information processing
unit
dimensional
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019122719A
Other languages
Japanese (ja)
Other versions
JP2020179662A (en
Inventor
浩紀 八登
大輔 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Arithmer Inc
Original Assignee
Arithmer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Arithmer Inc filed Critical Arithmer Inc
Priority to JP2019122719A priority Critical patent/JP6593830B1/en
Application granted granted Critical
Publication of JP6593830B1 publication Critical patent/JP6593830B1/en
Publication of JP2020179662A publication Critical patent/JP2020179662A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】対象物の高精度な寸法データを提供する。【解決手段】情報処理装置は、変換部24C及び推定部24Dを備える。変換部24Cは、対象物のシルエット画像を受け付ける受付部たり得る。推定部24Dは、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジン21Aを使用して、受け付けたシルエット画像から対象物の形状パラメータの値を推定する。そして、推定された対象物の形状パラメータの値が、対象物が有する任意の部位に関連する寸法データに関連付けられる。【選択図】図1To provide highly accurate dimension data of an object. An information processing apparatus includes a conversion unit 24C and an estimation unit 24D. The conversion unit 24C may be a reception unit that receives a silhouette image of an object. The estimation unit 24D uses the object engine 21A that associates the silhouette image of the sample object and the values of a predetermined number of shape parameters associated with the sample object, and determines the shape parameter of the object from the received silhouette image. Estimate the value. Then, the estimated value of the shape parameter of the object is associated with dimension data related to an arbitrary part of the object. [Selection] Figure 1

Description

本開示は、情報処理装置、情報処理方法、寸法データ算出装置、及び製品製造装置に関する。   The present disclosure relates to an information processing apparatus, an information processing method, a dimension data calculation apparatus, and a product manufacturing apparatus.

従来、対象物の形状に基づいて製品を製造する装置が検討されている。例えば、特許文献1(特開2017−018158号公報)には、指の爪を撮影して爪画像を取得し、爪画像に基づいて、爪の形状、爪の位置、爪の曲率等の付け爪作成に必要な爪情報を取得し、爪情報に基づいて付け爪パーツを作成する技術が開示されている。   Conventionally, an apparatus for manufacturing a product based on the shape of an object has been studied. For example, in Patent Document 1 (Japanese Patent Laid-Open No. 2017-018158), a fingernail is photographed to obtain a nail image, and a nail shape, a nail position, a nail curvature, and the like are attached based on the nail image. A technique for acquiring nail information necessary for nail creation and creating artificial nail parts based on the nail information is disclosed.

しかしながら、従来技術では、対象物における寸法及び形状を高精度に算出することが困難であった。   However, in the prior art, it has been difficult to calculate the size and shape of the object with high accuracy.

第1観点の情報処理装置は、対象物のシルエット画像を受け付ける受付部と、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジンを使用して、受け付けたシルエット画像から対象物の形状パラメータの値を推定する推定部と、を備え、推定された対象物の形状パラメータの値が、対象物が有する任意の部位に関連する寸法データに関連付けられる。このような構成により、対象物について算出される寸法データを高精度で提供することができる。   An information processing apparatus according to a first aspect uses a reception unit that receives a silhouette image of an object, and an object engine that associates a silhouette image of a sample object with values of a predetermined number of shape parameters associated with the sample object And an estimation unit for estimating the value of the shape parameter of the object from the received silhouette image, and the estimated shape parameter value of the object is converted into dimensional data related to an arbitrary part of the object. Associated. With such a configuration, the dimension data calculated for the object can be provided with high accuracy.

第2観点の情報処理装置は、第1観点の情報処理装置において、サンプル対象物に関連付けられた所定個数の形状パラメータが、サンプル対象物の3次元データを次元削減することによって得られる。   In the information processing apparatus according to the second aspect, in the information processing apparatus according to the first aspect, a predetermined number of shape parameters associated with the sample object are obtained by reducing the dimension of the three-dimensional data of the sample object.

第3観点の情報処理装置は、第2観点の情報処理装置において、次元削減が主成分分析により行われ、推定された所定個数の形状パラメータの値に対し、主成分分析に係る射影の逆変換により対象物の3次元データが算出され、3次元データが寸法データに関連付けられる。   The information processing apparatus according to the third aspect is the same as the information processing apparatus according to the second aspect, in which dimension reduction is performed by principal component analysis, and inverse projection of projection according to principal component analysis is performed on the estimated number of shape parameter values. Thus, the three-dimensional data of the object is calculated, and the three-dimensional data is associated with the dimension data.

第4観点の情報処理装置は、第3観点の情報処理装置において、第1順位の主成分を除いた第2順位以降の所定個数の主成分が形状パラメータに選択される。   In the information processing device according to the fourth aspect, in the information processing device according to the third aspect, a predetermined number of principal components after the second order excluding the first order principal components are selected as the shape parameters.

第5観点の情報処理装置は、第4観点の情報処理装置において、対象物が人であり、第1順位の主成分が人の身長に関連付けられる。   An information processing apparatus according to a fifth aspect is the information processing apparatus according to the fourth aspect, wherein the object is a person and the main component of the first order is associated with the height of the person.

第6観点の情報処理装置は、第1観点から第5観点の何れかの情報処理装置において、サンプル対象物のシルエット画像が、サンプル対象物の3次元データから構成される3次元物体における所定方向の投影画像である。   An information processing apparatus according to a sixth aspect is the information processing apparatus according to any one of the first to fifth aspects, wherein the silhouette image of the sample target is a predetermined direction in a three-dimensional object composed of three-dimensional data of the sample target It is a projection image.

第7観点の情報処理装置は、第1観点から第6観点の何れかの情報処理装置において、対象物エンジンが、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値との関係を学習することにより生成されている。   An information processing apparatus according to a seventh aspect is the information processing apparatus according to any one of the first aspect to the sixth aspect, wherein the object engine includes a silhouette image of the sample object and a predetermined number of shape parameters associated with the sample object. It is generated by learning the relationship with the value.

第8観点の情報処理装置は、第1観点から第7観点の何れかの情報処理装置であって、
対象物について推定された所定個数の形状パラメータの値から、対象物における複数の頂点の3次元データを構成し、構成された3次元データに基づいて、対象物における任意の2つの頂点の間の寸法データを算出する算出部と、を更に備える。
An information processing apparatus according to an eighth aspect is the information processing apparatus according to any one of the first to seventh aspects,
From the value of a predetermined number of shape parameters estimated for the object, three-dimensional data of a plurality of vertices in the object is configured, and based on the configured three-dimensional data, between any two vertices in the object And a calculation unit for calculating dimension data.

第9観点の情報処理装置は、第8観点の情報処理装置の算出部において、2つの頂点の間の寸法データが、対象物における複数の頂点の3次元データから構成される3次元物体上の曲面に沿って算出される。   In the information processing apparatus of the ninth aspect, in the calculation unit of the information processing apparatus of the eighth aspect, the dimension data between two vertices is on a three-dimensional object composed of three-dimensional data of a plurality of vertices in the target object. Calculated along the curved surface.

第10観点の情報処理装置は、第1観点から第9観点の何れかの情報処理装置において、対象物のシルエット画像が、深度データ測定装置を用いて得られる深度データに基づいて、対象物の画像と対象物以外の画像とを分離することで生成される。   An information processing apparatus according to a tenth aspect is the information processing apparatus according to any one of the first aspect to the ninth aspect, wherein the silhouette image of the object is based on depth data obtained using the depth data measurement apparatus. It is generated by separating an image and an image other than the object.

第11観点の情報処理装置は、第10観点の情報処理装置において、深度データ測定装置がステレオカメラである。   An information processing apparatus according to an eleventh aspect is the information processing apparatus according to the tenth aspect, wherein the depth data measurement device is a stereo camera.

第12観点の情報処理方法は、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値との関係を学習させ、対象物エンジンを生成するステップと、対象物のシルエット画像を受け付けるステップと、対象物エンジンを使用して、受け付けたシルエット画像から対象物の形状パラメータの値を推定するステップと、対象物の形状パラメータの値に基づいて、対象物が有する部位に関連する寸法データを算出するステップと、を含む。このような構成により、対象物について算出される寸法データを高精度で提供することができる。   An information processing method according to a twelfth aspect includes a step of learning a relationship between a silhouette image of a sample object and values of a predetermined number of shape parameters associated with the sample object, generating an object engine, and a silhouette of the object A step of receiving an image, a step of estimating a shape parameter value of the target object from the received silhouette image by using the target object engine, and a portion related to a part of the target object based on the value of the shape parameter of the target object Calculating dimension data to be processed. With such a configuration, the dimension data calculated for the object can be provided with high accuracy.

第13観点の情報処理装置は、対象物の属性データを受け付ける受付部と、サンプル対象物の属性データとサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジンを使用して、受け付けた属性データから対象物の形状パラメータの値を推定する推定部と、を備え、推定された対象物の形状パラメータの値が、対象物が有する任意の部位に関連する寸法データに関連付けられる。このような構成により、対象物について算出される寸法データを高精度で提供することができる。   An information processing apparatus according to a thirteenth aspect uses a reception unit that receives attribute data of an object, and an object engine that associates attribute data of the sample object with a predetermined number of shape parameter values associated with the sample object And an estimation unit that estimates the value of the shape parameter of the target object from the received attribute data, and the estimated shape parameter value of the target object is dimensional data related to an arbitrary part of the target object. Associated. With such a configuration, the dimension data calculated for the object can be provided with high accuracy.

第14観点の情報処理装置は、第13観点の情報処理装置において、サンプル対象物に関連付けられた所定個数の形状パラメータが、サンプル対象物の3次元データを次元削減することによって得られる。   In the information processing apparatus according to the fourteenth aspect, in the information processing apparatus according to the thirteenth aspect, a predetermined number of shape parameters associated with the sample object are obtained by reducing the dimension of the three-dimensional data of the sample object.

第15観点の情報処理装置は、第14観点の情報処理装置において、次元削減が主成分分析により行われ、第1順位の主成分を除いた第2順位以降の所定個数の主成分が形状パラメータに選択される。   The information processing device according to the fifteenth aspect is the same as the information processing device according to the fourteenth aspect, in which dimension reduction is performed by principal component analysis, and a predetermined number of principal components after the second order excluding the first order principal components are the shape parameters. Selected.

第16観点の情報処理装置は、第15観点の情報処理装置において、対象物が人であり、第1順位の主成分が人の身長に関連付けられ、属性データには対象物の身長データが含まれる。   An information processing apparatus according to a sixteenth aspect is the information processing apparatus according to the fifteenth aspect, wherein the object is a person, the first principal component is associated with the height of the person, and the attribute data includes the height data of the object It is.

第17観点の情報処理装置は、第13観点から第16観点の何れかの情報処理装置において、対象物エンジンが、サンプル対象物の属性データとサンプル対象物に関連付けられた所定個数の形状パラメータの値との関係を学習することにより生成されている。   An information processing apparatus according to a seventeenth aspect is the information processing apparatus according to any one of the thirteenth to sixteenth aspects, wherein the target object engine includes attribute data of the sample target object and a predetermined number of shape parameters associated with the sample target object. It is generated by learning the relationship with the value.

第18観点の情報処理装置は、第13観点から第17観点の何れかの情報処理装置であって、対象物について推定された所定個数の形状パラメータの値から、対象物における複数の頂点の3次元データを構成し、構成された3次元データに基づいて、対象物における任意の2つの頂点の間の寸法データを算出する算出部と、を更に備える。   An information processing apparatus according to an eighteenth aspect is the information processing apparatus according to any one of the thirteenth to seventeenth aspects, wherein three vertices of a plurality of vertices in the object are calculated based on a predetermined number of shape parameter values estimated for the object. And a calculation unit configured to calculate dimension data between two arbitrary vertices in the target object based on the configured three-dimensional data.

第19観点の情報処理装置は、第18観点の情報処理装置の算出部において、2つの頂点の間の寸法データが、対象物における複数の頂点の3次元データから構成される3次元物体上の曲面に沿って算出される。   In an information processing device according to a nineteenth aspect, in the calculation unit of the information processing device according to the eighteenth aspect, dimension data between two vertices is on a three-dimensional object composed of three-dimensional data of a plurality of vertices in the object. Calculated along the curved surface.

第20観点の情報処理方法は、サンプル対象物の属性データとサンプル対象物に関連付けられた所定個数の形状パラメータの値との関係を学習させ、対象物エンジンを生成するステップと、対象物の属性データを受け付けるステップと、受け付けた属性データから対象物の形状パラメータの値を推定する推定ステップと、対象物の形状パラメータの値に基づいて、対象物が有する部位に関連する寸法データを算出するステップと、を含む。   An information processing method according to a twentieth aspect includes a step of learning a relationship between attribute data of a sample object and values of a predetermined number of shape parameters associated with the sample object, and generating an object engine; A step of receiving data, an estimation step of estimating a value of the shape parameter of the target object from the received attribute data, and a step of calculating dimension data related to a part of the target object based on the value of the shape parameter of the target object And including.

第21観点の寸法データ算出装置は、対象物が撮影された画像データ及び対象物の全長データを取得する取得部と、画像データから対象物の形状を示す形状データを抽出する抽出部と形状データを全長データに基づいてシルエット画像に変換する変換部と、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジンを使用して、シルエット画像から所定個数の形状パラメータの値を推定する推定部と、推定された所定個数の形状パラメータの値に基づいて、対象物の寸法データを算出する算出部と、を備える。このような構成により、対象物について算出される寸法データを高精度で提供することができる。   A size data calculation apparatus according to a twenty-first aspect includes an acquisition unit that acquires image data obtained by photographing an object and full length data of the object, an extraction unit that extracts shape data indicating the shape of the object from the image data, and shape data. A silhouette image using a conversion unit that converts the image into a silhouette image based on the total length data, and an object engine that associates the silhouette image of the sample object with a predetermined number of shape parameter values associated with the sample object An estimation unit that estimates the value of a predetermined number of shape parameters, and a calculation unit that calculates dimensional data of the object based on the estimated value of the predetermined number of shape parameters. With such a configuration, the dimension data calculated for the object can be provided with high accuracy.

第22観点の寸法データ算出装置は、第21観点の寸法データ算出装置において、所定個数の形状パラメータが、サンプル対象物の3次元データを次元削減することによって得られる。   In the dimensional data calculation device according to the twenty-second aspect, in the dimensional data calculation device according to the twenty-first aspect, the predetermined number of shape parameters are obtained by reducing the dimension of the three-dimensional data of the sample object.

第23観点の寸法データ算出装置は、第22観点の寸法データ算出装置において、次元削減が主成分分析により行われ、算出部において、所定個数の形状パラメータの値に対し、主成分分析に係る射影行列に基づいて逆変換を行うことにより3次元データが算出され、寸法データが3次元データから算出される。   The dimensional data calculation apparatus according to the twenty-third aspect is the same as the dimensional data calculation apparatus according to the twenty-second aspect, in which dimension reduction is performed by principal component analysis, and the calculation unit projects a predetermined number of shape parameter values according to principal component analysis. Three-dimensional data is calculated by performing inverse transformation based on the matrix, and dimension data is calculated from the three-dimensional data.

第24観点の製品製造装置は、第21観点から第23観点の何れかの寸法データ算出装置を用いて算出された少なくとも1つの寸法データを用いて、対象物の形状に関連する製品を製造する。   A product manufacturing apparatus according to a twenty-fourth aspect manufactures a product related to the shape of an object using at least one dimension data calculated by using any one of the dimension data calculation apparatuses according to any of the twenty-first to twenty-third aspects. .

第1実施形態に係る寸法データ算出システム100の模式図である。It is a mimetic diagram of size data calculation system 100 concerning a 1st embodiment. 図1の学習装置25の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the learning apparatus 25 of FIG. 図1の寸法データ算出装置20の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the dimension data calculation apparatus 20 of FIG. 形状パラメータの特性を示す概略説明図である。It is a schematic explanatory drawing which shows the characteristic of a shape parameter. 形状パラメータの特性を示す概略グラフである。It is a schematic graph which shows the characteristic of a shape parameter. 第1実施形態に係る製品製造システム1の概念を示す模式図である。It is a schematic diagram which shows the concept of the product manufacturing system 1 which concerns on 1st Embodiment. 図6の製品製造システム1の動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of the product manufacturing system 1 of FIG. 図6の端末装置10に表示される画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen displayed on the terminal device 10 of FIG. 図6の端末装置10に表示される画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen displayed on the terminal device 10 of FIG. 第2実施形態に係る寸法データ算出システム100の模式図である。It is a schematic diagram of the dimension data calculation system 100 which concerns on 2nd Embodiment. 図10の学習装置125の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the learning apparatus 125 of FIG. 図10の寸法データ算出装置20の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the dimension data calculation apparatus 20 of FIG. 第2実施形態に係る製品製造システム1Sの概念を示す模式図である。It is a schematic diagram which shows the concept of the product manufacturing system 1S which concerns on 2nd Embodiment.

以下に、本発明の情報処理装置、情報処理方法、製品製造装置、及び寸法データ算出装
置の実施形態に係る寸法データ算出システムを添付図面とともに説明する。以下の実施形態の説明において、情報処理装置及び寸法データ算出装置は、寸法データ算出システムの一部として実装される。
Hereinafter, a dimension data calculation system according to embodiments of an information processing apparatus, an information processing method, a product manufacturing apparatus, and a dimension data calculation apparatus according to the present invention will be described with reference to the accompanying drawings. In the following description of the embodiments, the information processing apparatus and the dimension data calculation apparatus are implemented as a part of the dimension data calculation system.

添付図面において、同一又は類似の要素には同一又は類似の参照符号が付され、各実施形態の説明において同一又は類似の要素に関する重複する説明は省略することがある。また、各実施形態で示される特徴は、互いに矛盾しない限り他の実施形態にも適用可能である。更に、図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。   In the accompanying drawings, the same or similar elements are denoted by the same or similar reference numerals, and redundant description of the same or similar elements may be omitted in the description of each embodiment. Further, the features shown in each embodiment can be applied to other embodiments as long as they do not contradict each other. Furthermore, the drawings are schematic and do not necessarily match actual dimensions and ratios. In some cases, the dimensional relationships and ratios may be different between the drawings.

なお、以下の説明において、行列やベクトルなどを用いて複数の要素をまとめて表記する場合は大文字で表し、行列の個々の要素を表記する場合は小文字で表すことがある。例えば、形状パラメータの集合を示す場合等は行列Λと表記し、行列Λの要素を表す場合は、要素λと表記する場合がある。   In the following description, when a plurality of elements are described together using a matrix, a vector, or the like, they are expressed in capital letters, and in the case of expressing individual elements of a matrix, they may be expressed in lowercase letters. For example, when a set of shape parameters is indicated, it is expressed as a matrix Λ, and when an element of the matrix Λ is expressed, it may be expressed as an element λ.

<第1実施形態>
(1−1)寸法データ算出システムの構成
図1は本実施形態に係る寸法データ算出システム100の構成を示す模式図である。寸法データ算出システム100は、寸法データ算出装置20及び学習装置25を備える。
<First Embodiment>
(1-1) Configuration of Dimension Data Calculation System FIG. 1 is a schematic diagram showing a configuration of a dimensional data calculation system 100 according to this embodiment. The dimension data calculation system 100 includes a dimension data calculation device 20 and a learning device 25.

寸法データ算出装置20及び学習装置25は、それぞれ、任意のコンピュータにより実現することができる。寸法データ算出装置20は、記憶部21、入出力部22、通信部23、及び処理部24を備える。また、学習装置25は、記憶部26及び処理部27を備える。なお、寸法データ算出装置20及び学習装置25は、LSI(Large Scale Integration),ASIC(Application Specific Integrated Circuit),FPGA(Field-Programmable Gate Array)等を用いてハードウェアとして実現されてもよい。   Each of the dimension data calculation device 20 and the learning device 25 can be realized by an arbitrary computer. The dimension data calculation device 20 includes a storage unit 21, an input / output unit 22, a communication unit 23, and a processing unit 24. The learning device 25 includes a storage unit 26 and a processing unit 27. The dimension data calculation device 20 and the learning device 25 may be realized as hardware using an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or the like.

記憶部21,26は、何れも各種情報を記憶するものであり、メモリ及びハードディスク等の任意の記憶装置により実現される。例えば、記憶部21は、処理部24において寸法データ算出に関する情報処理を実行するために、対象物エンジン21Aを含む各種データ、プログラム、情報等を格納する。また、記憶部26は、対象物エンジン21Aを生成するために、学習段階で利用される訓練データを格納する。   Each of the storage units 21 and 26 stores various types of information, and is realized by an arbitrary storage device such as a memory and a hard disk. For example, the storage unit 21 stores various data, programs, information, and the like including the target object engine 21 </ b> A in order for the processing unit 24 to perform information processing related to dimension data calculation. The storage unit 26 stores training data used in the learning stage in order to generate the object engine 21A.

入出力部22は、キーボード、マウス、タッチパネル等により実現され、コンピュータに各種情報を入力したり、コンピュータから各種情報を出力したりする。
通信部23は、任意のネットワークカード等のネットワークインタフェースにより実現され、有線又は無線によりネットワーク上の通信機器との通信を可能にする。
The input / output unit 22 is realized by a keyboard, a mouse, a touch panel, and the like, and inputs various information to the computer and outputs various information from the computer.
The communication unit 23 is realized by a network interface such as an arbitrary network card, and enables communication with communication devices on the network by wire or wireless.

処理部24,27は、何れも各種情報処理を実行するために、CPU(Central Processing Unit)及び/又はGPU(Graphical Processing Unit)といったプロセッサ、並びにメモリにより実現される。処理部24は、コンピュータのCPU,GPU等に、記憶部21に記憶されたプログラムが読み込まれることにより、取得部24A、抽出部24B、変換部24C、推定部24D、及び算出部24Eとして機能する。同様に、処理部27は、コンピュータのCPU,GPU等に、記憶部26に記憶されたプログラムが読み込まれることにより、前処理部27A及び学習部27Bとして機能する。   The processing units 24 and 27 are each realized by a processor such as a CPU (Central Processing Unit) and / or a GPU (Graphical Processing Unit) and a memory in order to execute various types of information processing. The processing unit 24 functions as an acquisition unit 24A, an extraction unit 24B, a conversion unit 24C, an estimation unit 24D, and a calculation unit 24E by reading a program stored in the storage unit 21 into a CPU, GPU, or the like of a computer. . Similarly, the processing unit 27 functions as a preprocessing unit 27A and a learning unit 27B by reading a program stored in the storage unit 26 into a CPU, GPU, or the like of a computer.

寸法データ算出装置20の処理部24において、取得部24Aは、対象物が撮影された画像データ、並びに対象物の全長データ及び重量データ等の属性データを取得する。取得部24Aは、例えば、撮像装置により、対象物を複数の異なる方向から撮影した複数の画像データを取得する。   In the processing unit 24 of the dimension data calculation device 20, the acquisition unit 24A acquires image data obtained by photographing the object, and attribute data such as full length data and weight data of the object. The acquiring unit 24A acquires, for example, a plurality of image data obtained by capturing an object from a plurality of different directions using an imaging device.

抽出部24Bは、画像データから対象物の形状を示す形状データを抽出する。具体的には、抽出部24Bは、対象物の種類毎に準備されたセマンティックセグメンテーションのアルゴリズム(Mask R-CNN等)を用いて、画像データに含まれる対象物領域を抽出することにより、対象物の形状データを抽出する。セマンティックセグメンテーションのアルゴリズムは、対象物の形状が特定されていない訓練データを用いて構築できる。   The extraction unit 24B extracts shape data indicating the shape of the object from the image data. Specifically, the extraction unit 24B extracts a target area included in the image data by using a semantic segmentation algorithm (Mask R-CNN or the like) prepared for each type of target object. Extract shape data. Semantic segmentation algorithms can be constructed using training data in which the shape of the object is not specified.

なお、セマンティックセグメンテーションのアルゴリズムが、形状が不特定の対象物の訓練データを用いて構築されている場合、必ずしも高精度に対象物の形状を抽出することができないことがある。このような場合、抽出部24Bは、対象物領域からグラブカット(Grab Cut)アルゴリズムにより対象物の形状データを抽出する。これにより、高精度に対象物の形状を抽出することが可能になる。   Note that when the algorithm of semantic segmentation is constructed using training data of an object whose shape is unspecified, the shape of the object may not necessarily be extracted with high accuracy. In such a case, the extraction unit 24B extracts the shape data of the target object from the target object region using a grab cut algorithm. This makes it possible to extract the shape of the object with high accuracy.

また、抽出部24Bは、グラブカットアルゴリズムにより特定された対象物の画像を、対象物の特定部分の色画像に基づいて補正することにより、対象物と対象物以外の背景画像とを分離してもよい。これにより、更に高精度に対象物の形状データを生成することが可能となる。   In addition, the extraction unit 24B separates the object and the background image other than the object by correcting the image of the object specified by the grab cut algorithm based on the color image of the specific part of the object. Also good. Thereby, it becomes possible to generate the shape data of the object with higher accuracy.

変換部24Cは、形状データを全長データに基づいてシルエット化する。つまり、対象物の形状データを変換して、対象物のシルエット画像を生成する。これにより、形状データが規格化される。変換部24Cは、生成されたシルエット画像を推定部24Dに入力するための受付部としても機能することになる。   The conversion unit 24C silhouettes the shape data based on the full length data. That is, the shape data of the object is converted to generate a silhouette image of the object. Thereby, shape data is normalized. The conversion unit 24C also functions as a reception unit for inputting the generated silhouette image to the estimation unit 24D.

推定部24Dは、シルエット画像から所定個数の形状パラメータの値を推定する。推定には、対象物エンジン21Aが使用される。推定部24Dで推定された所定個数の対象物の形状パラメータの値は、対象物が有する任意の部位に関連する寸法データに関連付けられる。   The estimation unit 24D estimates a predetermined number of shape parameter values from the silhouette image. The object engine 21A is used for the estimation. The value of the shape parameter of the predetermined number of objects estimated by the estimation unit 24D is associated with dimension data related to an arbitrary part of the object.

算出部24Eは、推定部24Dによって推定された所定個数の形状パラメータの値から、これに関連付けられた対象物の寸法データを算出する。具体的には、算出部24Eは、推定部24Dで推定された対象物の形状パラメータの値から、対象物における複数の頂点の3次元データを構成し、更に、当該3次元データに基づいて対象物における任意の2つの頂点の間の寸法データを算出する。   The calculation unit 24E calculates the dimension data of the object associated with the predetermined number of shape parameter values estimated by the estimation unit 24D. Specifically, the calculation unit 24E configures three-dimensional data of a plurality of vertices in the object from the value of the shape parameter of the object estimated by the estimation unit 24D, and further, based on the three-dimensional data, the target Dimension data between any two vertices in the object is calculated.

学習装置25の処理部27において、前処理部27Aは、学習のための各種前処理を実施する。特に、前処理部27Aは、サンプル対象物の3次元データを次元削減により特徴抽出することを通じて、所定個数の形状パラメータを特定する。また、サンプル対象物ごとに所定個数(次元)の形状パラメータの値を得る。サンプル対象物の形状パラメータの値は、訓練データとして記憶部26に格納される。   In the processing unit 27 of the learning device 25, the preprocessing unit 27A performs various preprocessing for learning. In particular, the preprocessing unit 27A specifies a predetermined number of shape parameters through feature extraction of the three-dimensional data of the sample object by dimension reduction. In addition, a predetermined number (dimensions) of shape parameter values are obtained for each sample object. The value of the shape parameter of the sample object is stored in the storage unit 26 as training data.

また、前処理部27Aは、サンプル対象物の3次元データに基づいて、3次元空間内にサンプル対象物の3次元物体を仮想的に構成した上で、3次元空間内に仮想的に設けた撮像装置を用いて所定方向から3次元物体を投影する。サンプル対象物のシルエット画像は、訓練データとして記憶部26に格納される。   In addition, the preprocessing unit 27A virtually configures a three-dimensional object of the sample target in the three-dimensional space based on the three-dimensional data of the sample target, and then virtually provides the three-dimensional space in the three-dimensional space. A three-dimensional object is projected from a predetermined direction using an imaging device. The silhouette image of the sample object is stored in the storage unit 26 as training data.

学習部27Bは、サンプル対象物のシルエット画像と、サンプル対象物に関連付けられる所定個数の形状パラメータの値との関係を関連付けるように学習する。学習の結果、対象物エンジン21Aが生成される。生成された対象物エンジン21Aは、電子ファイルの形態で保持できる。寸法データ算出装置20において対象物の寸法データを算出する際には、対象物エンジン21Aは、記憶部21に格納されて推定部24Dによって参照される
The learning unit 27B learns to associate the silhouette image of the sample object with the relationship between a predetermined number of shape parameter values associated with the sample object. As a result of learning, the object engine 21A is generated. The generated object engine 21A can be held in the form of an electronic file. When the dimension data calculation device 20 calculates the dimension data of the object, the object engine 21A is stored in the storage unit 21 and referenced by the estimation unit 24D.

(1−2)寸法データ算出システムの動作
図2及び図3を参照して、図1の寸法データ算出システム100の動作を説明する。図2は、学習装置25の動作(S10)を示すフローチャートであり、サンプル対象物データに基づいて対象物エンジン21Aを生成する。図3は、寸法データ算出装置20の動作を示すフローチャートであり、対象物の画像データに基づいて対象物の寸法データを算出する。
(1-2) Operation of Dimension Data Calculation System The operation of the dimensional data calculation system 100 of FIG. 1 will be described with reference to FIGS. FIG. 2 is a flowchart showing the operation (S10) of the learning device 25, and generates the object engine 21A based on the sample object data. FIG. 3 is a flowchart showing the operation of the dimension data calculating device 20, and calculates the dimension data of the object based on the image data of the object.

(1−2−1)学習装置の動作
最初に、サンプル対象物のデータが準備され、記憶部26に格納される(S11)。一例では、準備されるデータは、400個のサンプル対象物のデータであり、サンプル対象物ごとに5,000個の3次元データを含む。3次元データには、サンプル対象物が有する頂点の3次元座標データが含まれる。また、3次元データには、3次元物体を構成する各メッシュの頂点情報及び各頂点の法線方向等のメッシュ・データ、並びに、全長データ、重量データ、及び経時データ(年齢等を含む。)等の属性データが含まれてもよい。
(1-2-1) Operation of Learning Device First, sample object data is prepared and stored in the storage unit 26 (S11). In one example, the data to be prepared is data for 400 sample objects, including 5,000 3D data for each sample object. The three-dimensional data includes the three-dimensional coordinate data of the vertices of the sample object. Further, the three-dimensional data includes mesh information such as vertex information of each mesh constituting the three-dimensional object and the normal direction of each vertex, and full length data, weight data, and time-lapse data (including age and the like). Or other attribute data may be included.

サンプル対象物の3次元データは、頂点番号が関連付けられている。前述の例では、サンプル対象物ごとに、5,000個の頂点の3次元データが頂点番号#1〜#5,000に対応付けられている。また、頂点番号の全部又は一部は、対象物の部位の情報が関連付けられている。例えば、対象物が「人」の場合、頂点番号#20は「頭頂点」に関連付けられ、同様に、頂点番号#313は「左肩の肩峰」に、頂点番号#521は「右肩の肩峰」に関連付けられる等である。   The three-dimensional data of the sample object is associated with a vertex number. In the above-described example, three-dimensional data of 5,000 vertices is associated with the vertex numbers # 1 to # 5,000 for each sample object. Also, all or part of the vertex numbers are associated with information on the part of the object. For example, when the object is “person”, the vertex number # 20 is associated with the “head vertex”, and similarly, the vertex number # 313 is “left shoulder shoulder peak”, and the vertex number # 521 is “right shoulder shoulder”. And so on.

続いて、前処理部27Aは、次元削減により形状パラメータへの特徴変換を行う(S12)。具体的には、サンプル対象物ごとに、サンプル対象物の3次元データを次元削減により特徴抽出を行う。その結果、所定個数(次元数)の形状パラメータを得る。一例では、形状パラメータの次元数は30である。次元削減は、主成分分析、Random Projection
等の手法により実現される。
Subsequently, the preprocessing unit 27A performs feature conversion into shape parameters by dimension reduction (S12). Specifically, for each sample object, feature extraction is performed on the three-dimensional data of the sample object by dimension reduction. As a result, a predetermined number (dimension number) of shape parameters are obtained. In one example, the number of dimensions of the shape parameter is 30. Dimension reduction is principal component analysis, Random Projection
It is realized by such a method.

前処理部27Aは、主成分分析の射影行列を用いて、サンプル対象物ごとに3次元データから所定個数の形状パラメータの値に変換する。これにより、関連する特徴的な情報を維持した上で、サンプル対象物の3次元データからノイズを取り除き、3次元データを圧縮することができる。   The preprocessing unit 27A converts the three-dimensional data into a predetermined number of shape parameter values for each sample object using a projection matrix for principal component analysis. Thereby, it is possible to remove noise from the three-dimensional data of the sample object and to compress the three-dimensional data while maintaining related characteristic information.

前述の例のように、サンプル対象物のデータが400個あり、各サンプル対象物が5,000個の頂点の3次元(座標)データを含み、各3次元データを30次元の形状パラメータに特徴変換することを想定する。ここでは、400個のサンプル対象物のデータを表す〔400行,15,000列(5,000×3)〕の頂点座標行列を行列Xとする。また、主成分分析によって生成される〔15,000行、30列〕の射影行列を行列Wとする。頂点座標行列Xに対し、射影行列Wを右から掛けることによって、〔400行、30列〕の形状パラメータ行列である行列Λを得ることができる。   As in the previous example, there are 400 sample object data, each sample object contains 3D (coordinate) data of 5,000 vertices, and each 3D data is characterized by 30-dimensional shape parameters Assume to convert. Here, a vertex coordinate matrix of [400 rows, 15,000 columns (5,000 × 3)] representing data of 400 sample objects is assumed to be a matrix X. Further, a projection matrix of [15,000 rows, 30 columns] generated by principal component analysis is set as a matrix W. By multiplying the vertex coordinate matrix X by the projection matrix W from the right, a matrix Λ that is a shape parameter matrix of [400 rows, 30 columns] can be obtained.

つまり、形状パラメータ行列Λは次の数式から計算することができる。

Figure 0006593830
That is, the shape parameter matrix Λ can be calculated from the following formula.
Figure 0006593830

射影行列Wを用いた行列演算の結果、400個のサンプル対象物がそれぞれ有する15,000次元のデータは、30次元の主成分の形状パラメータ(λ,...,λ30)に特徴変換される。なお、主成分分析では、λに対する400個分の値(λ1,1,...,λ400,1)の平均値がゼロになるように計算されている。 As a result of the matrix calculation using the projection matrix W, the 15,000-dimensional data of each of the 400 sample objects is feature-converted into the 30-dimensional principal component shape parameters (λ 1 ,..., Λ 30 ). Is done. In the principal component analysis, the average value of 400 values (λ 1,1 ,..., Λ 400,1 ) for λ i is calculated to be zero.

S12の結果、形状パラメータ行列Λを得たのに続いて、前処理部27Aは、形状パラメータ行列Λに含まれている形状パラメータのデータ・セットを、乱数を用いて拡張する(S13)。前述の例では、400個のデータ・セット(λi,1,...,λi,30(1≦i≦400))を、10,000個の形状パラメータの拡張データ・セット(λj,1,...,λj,30(1≦j≦10,000))にデータ拡張する。データ拡張は、正規分布を有する乱数を用いて行う。拡張データ・セットは、各形状パラメータの値の分散が3σの正規分布となる。 As a result of S12, after obtaining the shape parameter matrix Λ, the preprocessing unit 27A expands the shape parameter data set included in the shape parameter matrix Λ using random numbers (S13). In the above example, 400 data sets (λ i, 1 ,..., Λ i, 30 (1 ≦ i ≦ 400)) are converted into 10,000 shape parameter extended data sets (λ j , 1 ,..., Λ j, 30 (1 ≦ j ≦ 10,000)). Data expansion is performed using random numbers having a normal distribution. The extended data set has a normal distribution in which the variance of each shape parameter value is 3σ.

拡張データ・セットに対し、射影行列Wに基づく逆変換を行うことにより、拡張データ・セットの3次元データを構成することができる。前述の例において、更に、10,000個の拡張データ・セットを表す、〔10,000行、30列〕の拡張形状パラメータ行列を行列Λ’(λj,k,...,λj,k(1≦j≦10,000及び1≦k≦30))とする。10,000個のサンプル対象物の3次元データを表す頂点座標行列X’は、拡張形状パラメータ行列Λ’に対して、〔30行,15,000列〕である射影行列Wの転置行列Wを右から掛けることによって得られる。 By performing inverse transformation based on the projection matrix W on the extension data set, the three-dimensional data of the extension data set can be configured. In the above example, an extended shape parameter matrix of [10,000 rows, 30 columns] representing 10,000 extended data sets is further transformed into a matrix Λ ′ (λ j, k ,..., Λ j, k (1 ≦ j ≦ 10,000 and 1 ≦ k ≦ 30)). The vertex coordinate matrix X ′ representing the three-dimensional data of 10,000 sample objects is a transposed matrix W T of the projection matrix W that is [30 rows, 15,000 columns] with respect to the extended shape parameter matrix Λ ′. Is obtained by multiplying from the right.

つまり、頂点座標行列X’は、次の数式から計算することができ、10,000個に拡張されたサンプル対象物ごとに、5,000個(15,000/3)の3次元データを得ることができる。

Figure 0006593830
That is, the vertex coordinate matrix X ′ can be calculated from the following formula, and 5,000 (15,000 / 3) three-dimensional data are obtained for each 10,000 sample objects. be able to.
Figure 0006593830

S13の結果、頂点座標行列X’が得られたのに続いて、前処理部27Aは、拡張されたサンプル対象物の3次元データに基づいて、それぞれのシルエット画像を生成する(S14)。前述の例では、10,000個のサンプル対象物ごとに、3次元空間内において5,000個の3次元データから、サンプル対象物の3次元物体を仮想的に構成する。そして、同じく3次元空間内に仮想的に設けられ、任意の方向から投影可能な投影装置を用いて3次元物体を投影する。前述の例では、10,000個のサンプル対象物ごとに、正面方向及び側面方向の2枚のシルエット画像を投影により取得するのがよい。取得されるシルエット画像は、白黒の2値化データで表される。   As a result of S13, after the vertex coordinate matrix X 'is obtained, the pre-processing unit 27A generates respective silhouette images based on the expanded three-dimensional data of the sample object (S14). In the above-described example, a three-dimensional object of a sample object is virtually constructed from 5,000 pieces of three-dimensional data in a three-dimensional space for every 10,000 sample objects. Similarly, a three-dimensional object is projected using a projection device that is virtually provided in the three-dimensional space and can project from any direction. In the above-described example, it is preferable to obtain two silhouette images in the front direction and the side direction by projection for every 10,000 sample objects. The acquired silhouette image is represented by black and white binarized data.

最後に、学習部27Bは、学習により、サンプル対象物に関連付けられた形状パラメータの値と、サンプル対象物のシルエット画像との関係を関連付ける(S15)。具体的には、S13で得た形状パラメータのデータ・セットと、S14で得たシルエット画像との組を訓練データに用いて、両者の関係をディープラーニングにより学習させるのがよい。   Finally, the learning unit 27B associates the relationship between the value of the shape parameter associated with the sample object and the silhouette image of the sample object through learning (S15). Specifically, it is preferable to learn the relationship between the shape parameter data set obtained in S13 and the silhouette image obtained in S14 as training data by deep learning.

より詳しくは、前述の例で10,000個に拡張されたサンプル対象物について、各シルエット画像の2値化データをディープラーニングのネットワーク・アーキテクチャに入力する。ディープラーニングにおける特徴抽出では、ネットワーク・アーキテクチャから出力されるデータが、30個の形状パラメータの値に近づくように、ネットワーク・アーキテクチャの重み係数が設定される。なお、ここでのディープラーニングは、一例では、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を利用する
ことができる。
More specifically, the binarized data of each silhouette image is input to the deep learning network architecture for the sample objects expanded to 10,000 in the above example. In feature extraction in deep learning, the network architecture weighting factor is set so that the data output from the network architecture approaches the values of 30 shape parameters. Note that the deep learning here can use, for example, a convolutional neural network (CNN).

このようにして、S14では、サンプル対象物に関連付けられた形状パラメータの値と、サンプル対象物のシルエット画像との関係をディープラーニングにより学習させ、ディープラーニングのネットワーク・アーキテクチャが構築される。その結果、対象物のシルエット画像が入力されるのに応じて、形状パラメータの値を推定する推定モデルである対象物エンジン21Aが生成される。   In this way, in S14, the relationship between the value of the shape parameter associated with the sample object and the silhouette image of the sample object is learned by deep learning, and a deep learning network architecture is constructed. As a result, the object engine 21A, which is an estimation model for estimating the value of the shape parameter, is generated in response to the silhouette image of the object being input.

(1−2−2)寸法データ算出装置の動作
寸法データ算出装置20は、学習装置25で生成された対象物エンジン21Aの電子ファイル、及び学習装置25で得た主成分分析の射影情報を予め記憶部21に格納して、対象物の寸法データ算出に使用する。
(1-2-2) Operation of Dimension Data Calculation Device The dimensional data calculation device 20 previously stores the electronic file of the object engine 21A generated by the learning device 25 and the projection information of the principal component analysis obtained by the learning device 25. It is stored in the storage unit 21 and used to calculate the dimension data of the object.

最初に、取得部24Aは、入出力部122を通じて、外部の端末装置等を介して対象物の全体を異なる方向から撮影した複数の画像データを、対象物の全長を示す全長データと共に取得する(S21)。次いで、抽出部24Bは、各画像データから対象物の各部分の形状を示す形状データをそれぞれ抽出する(S22)。続いて、変換部24Cは、全長データに基づいて各形状データを所定の大きさに変換するリスケール処理を実行する(S23)。S21〜S23のステップを通じて、対象物のシルエット画像が生成され、寸法データ算出装置20は対象物のシルエット画像を受け付ける。   First, the acquisition unit 24A acquires a plurality of pieces of image data obtained by photographing the entire object from different directions via an external terminal device or the like, together with the full length data indicating the total length of the object, through the input / output unit 122 ( S21). Next, the extraction unit 24B extracts shape data indicating the shape of each part of the object from each image data (S22). Subsequently, the conversion unit 24C executes a rescaling process for converting each shape data into a predetermined size based on the full length data (S23). Through the steps S21 to S23, a silhouette image of the object is generated, and the dimension data calculation device 20 receives the silhouette image of the object.

次いで、予め記憶部21に格納された対象物エンジン21Aを使用して、推定部24Dは、受け付けたシルエット画像から対象物の形状パラメータの値を推定する(S24)。そして、算出部24Eは、対象物の形状パラメータの値に基づいて、対象物が有する部位に関連する寸法データを算出する(S25)。   Next, using the object engine 21A stored in advance in the storage unit 21, the estimation unit 24D estimates the value of the shape parameter of the object from the received silhouette image (S24). Then, the calculation unit 24E calculates dimension data related to the part of the target object based on the value of the shape parameter of the target object (S25).

具体的には、S25での寸法データの算出では、最初に、対象物について対象物エンジン21Aで推定された所定個数の形状パラメータの値から、対象物の頂点の3次元データを構成する。ここでは、学習段階において前処理部27Aで実施した次元削減に係る射影(S10)の逆変換を行えばよい。より詳しくは、推定された所定個数の形状パラメータの値(列ベクトル)に対し、主成分分析に係る射影行列Wの転置行列Wを右から掛けることによって、3次元データを得ることができる。 Specifically, in the calculation of the dimension data in S25, first, three-dimensional data of the vertices of the object is constructed from the values of a predetermined number of shape parameters estimated by the object engine 21A for the object. Here, the inverse transformation of the projection (S10) related to the dimension reduction performed by the preprocessing unit 27A in the learning stage may be performed. More specifically, with respect to the values of the shape parameters of the estimated predetermined number (column vector), by multiplying the transposed matrix W T of the projection matrix W according to the principal component analysis from the right, it is possible to obtain three-dimensional data.

前述の例では、対象物の形状パラメータの値Λ’’に対し、対象物の3次元データX’’は、次の数式から計算することができる。

Figure 0006593830
In the above-described example, the three-dimensional data X ″ of the object can be calculated from the following mathematical formula for the value Λ ″ of the object shape parameter.
Figure 0006593830

S25において、算出部24Eは、3次元データを使用して、対象物における任意の2つの頂点の間の寸法データを算出する。ここでは、3次元データから3次元物体を仮想的に構成し、3次元物体上の曲面に沿って2つの頂点の間の寸法データを算出する。つまり、3次元物体の立体的な形状に沿うようにして、2つの頂点間の距離を立体的に算出することができる。2つの頂点間の距離を立体的に算出するためには、最初に、多数の頂点(前述の例では5,000個の3次元データ)によって構成される3次元のメッシュ上で2つの頂点の間を繋ぐ最短経路を探索し、最短経路が通るメッシュを特定する。次いで、特定されたメッシュの頂点座標データを用いて、最短経路に沿ってメッシュ毎に距離を算出
し、合算する。その合計値が2つの頂点間の立体的な距離となる。なお、立体的な距離の計算には、3次元物体を構成する各メッシュの頂点情報及び各頂点の法線方向等のメッシュ・データを用いることができる。
In S25, the calculation unit 24E calculates the dimension data between any two vertices in the object using the three-dimensional data. Here, a three-dimensional object is virtually constructed from three-dimensional data, and dimension data between two vertices are calculated along a curved surface on the three-dimensional object. That is, the distance between two vertices can be calculated three-dimensionally along the three-dimensional shape of the three-dimensional object. In order to calculate the distance between two vertices three-dimensionally, first, two vertices on a three-dimensional mesh composed of a large number of vertices (5,000 three-dimensional data in the above example) are used. Search for the shortest path connecting the two, and identify the mesh through which the shortest path passes. Next, using the vertex coordinate data of the identified mesh, the distance is calculated for each mesh along the shortest path, and is added together. The total value is a three-dimensional distance between the two vertices. In addition, mesh data such as vertex information of each mesh constituting the three-dimensional object and the normal direction of each vertex can be used for the calculation of the three-dimensional distance.

例えば、対象物が「人」であり、人の「肩幅」を算出する場合を想定する。事前準備として、「肩幅=左肩の肩峰を示す頂点と右肩の肩峰を示す頂点の間の距離」であることを予め規定しておく。また、左肩の肩峰を示す頂点の頂点番号が例えば#313であり、右肩の肩峰を示す頂点の頂点番号が例えば#521であることを予め関連付けておく。これらの情報は予め記憶部21に格納される。寸法データ算出の際は、頂点番号#313から#521に向けた最短経路を特定し、最短経路に関連して特定されたメッシュの頂点座標データを用いて、最短経路に沿ってメッシュ毎に距離を算出し、合計すればよい。   For example, it is assumed that the object is “person” and the “shoulder width” of the person is calculated. As advance preparation, it is defined in advance that “shoulder width = the distance between the apex indicating the left shoulder shoulder peak and the apex indicating the right shoulder shoulder peak”. Further, the vertex number indicating the left shoulder shoulder peak is, for example, # 313, and the vertex number indicating the right shoulder shoulder peak is, for example, # 521. These pieces of information are stored in the storage unit 21 in advance. When calculating the dimension data, the shortest path from the vertex numbers # 313 to # 521 is specified, and the mesh vertex coordinate data specified in relation to the shortest path is used to determine the distance for each mesh along the shortest path. Can be calculated and summed.

このように、本実施形態の寸法データ算出装置20は、対象物エンジン21Aを使用することにより、シルエット画像から所定個数の形状パラメータの値を高精度に推定することができる。また、高精度に推定された形状パラメータの値から、対象物の3次元データを高精度に復元することができるので、特定部位のみならず任意の2つの頂点間を採寸対象箇所として、高精度に算出することができる。特に、算出される2つの頂点の間の寸法データは、3次元データから構成される3次元物体に基づいて立体的な形状に沿って算出されるので、高精度である。   Thus, the dimension data calculation apparatus 20 of this embodiment can estimate the value of a predetermined number of shape parameters from a silhouette image with high accuracy by using the object engine 21A. In addition, since the three-dimensional data of the object can be restored with high accuracy from the value of the shape parameter estimated with high accuracy, high accuracy can be achieved between any two vertices as well as a specific part. Can be calculated. In particular, since the calculated dimension data between two vertices is calculated along a three-dimensional shape based on a three-dimensional object composed of three-dimensional data, it is highly accurate.

(1−3)寸法データ算出システムの特徴
a)以上説明したように、本実施形態に係る寸法データ算出システム100は、寸法データ算出装置20及び学習装置25を備える。寸法データ算出装置20の一部として構成される情報処理装置は、変換部(受付部)24C及び推定部24Dを備える。変換部(受付部)24Cは、対象物のシルエット画像を受け付ける。推定部24Dは、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジン21Aを使用して、受け付けたシルエット画像から対象物の形状パラメータの値を推定する。そして、推定された対象物の形状パラメータの値が、対象物が有する任意の部位に関連する寸法データに関連付けられる。
(1-3) Features of Dimension Data Calculation System a) As described above, the dimensional data calculation system 100 according to the present embodiment includes the dimensional data calculation device 20 and the learning device 25. The information processing apparatus configured as a part of the dimension data calculation apparatus 20 includes a conversion unit (accepting unit) 24C and an estimation unit 24D. The conversion unit (accepting unit) 24C receives a silhouette image of the object. The estimation unit 24D uses the object engine 21A that associates the silhouette image of the sample object and the values of a predetermined number of shape parameters associated with the sample object, and calculates the shape parameter of the object from the received silhouette image. Estimate the value. Then, the estimated value of the shape parameter of the object is associated with dimension data related to an arbitrary part of the object.

また、寸法データ算出装置20は、取得部24A、抽出部24B、変換部24C、推定部24D、及び算出部24Eを備える。取得部24Aは、対象物が撮影された画像データ及び対象物の全長データを取得する。抽出部24Bは、画像データから対象物の形状を示す形状データを抽出する。変換部24Cは形状データを全長データに基づいてシルエット画像に変換する。推定部24Dは、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジン21Aを使用して、シルエット画像から所定個数の形状パラメータの値を推定する。算出部24Eは、推定された所定個数の形状パラメータの値に基づいて、対象物の寸法データを算出する。   The dimension data calculation device 20 includes an acquisition unit 24A, an extraction unit 24B, a conversion unit 24C, an estimation unit 24D, and a calculation unit 24E. The acquiring unit 24A acquires image data obtained by photographing the object and full length data of the object. The extraction unit 24B extracts shape data indicating the shape of the object from the image data. The converter 24C converts the shape data into a silhouette image based on the full length data. The estimation unit 24D uses the target object engine 21A that associates the silhouette image of the sample target object with the predetermined number of shape parameter values associated with the sample target object, and then calculates the predetermined number of shape parameter values from the silhouette image. presume. The calculation unit 24E calculates the dimension data of the object based on the estimated number of values of the predetermined number of shape parameters.

したがって、かかる寸法データ算出装置20は、予め作成済みの対象物エンジン21Aを使用することにより、シルエット画像から所定個数の形状パラメータの値を高精度に推定することができる。また、高精度に推定された形状パラメータの値を用いることで、対象物の任意の部位に関連するデータを効率的且つ高精度で算出することができる。このように、寸法データ算出装置20によれば、対象物について算出される寸法データを効率的且つ高精度で提供することができる。   Therefore, the dimension data calculation device 20 can estimate the value of a predetermined number of shape parameters from the silhouette image with high accuracy by using the object engine 21A created in advance. In addition, by using the shape parameter value estimated with high accuracy, it is possible to efficiently and highly accurately calculate data related to an arbitrary part of the object. Thus, according to the dimension data calculation device 20, the dimension data calculated for the object can be provided efficiently and with high accuracy.

かかる寸法データ算出装置20を用いることで、例えば、対象物として生物の各部分の寸法データを高精度に算出することができる。また、対象物として車や各種荷物等、任意の物体の各部分の寸法データを高精度に算出することができる。更に、寸法データ算出装
置20を、各種製品を製造する製品製造装置に組み込むことで、対象物の形状に適合した製品を製造することが可能となる。
By using such a dimension data calculation device 20, for example, the dimension data of each part of a living organism as an object can be calculated with high accuracy. Moreover, the dimension data of each part of an arbitrary object such as a car or various luggage can be calculated with high accuracy. Furthermore, by incorporating the dimension data calculation device 20 into a product manufacturing apparatus that manufactures various products, it is possible to manufacture a product that conforms to the shape of the object.

かかる寸法データ算出装置20を用いることで、例えば、対象物として生物の各部位に関連する寸法データを高精度に算出することができる。また、対象物として車や各種荷物等、任意の物体の各部分の寸法データを高精度に算出することができる。また、寸法データ算出装置20を、各種製品を製造する製品製造装置に組み込むことで、対象物の形状に適合した製品を製造することが可能となる。   By using such a dimension data calculation device 20, for example, dimension data related to each part of a living organism as an object can be calculated with high accuracy. Moreover, the dimension data of each part of an arbitrary object such as a car or various luggage can be calculated with high accuracy. Further, by incorporating the dimension data calculation device 20 into a product manufacturing apparatus that manufactures various products, it is possible to manufacture a product that conforms to the shape of the object.

b)かかる寸法データ算出装置20では、サンプル対象物に関連付けられた所定個数の形状パラメータが、サンプル対象物の3次元データを次元削減することによって特定される。特に、次元削減は主成分分析により行われる。これにより、サンプル対象物の3次元データからノイズを効果的に取り除き、3次元データを圧縮することができる。   b) In the dimension data calculation device 20, a predetermined number of shape parameters associated with the sample object are specified by reducing the dimension of the three-dimensional data of the sample object. In particular, dimension reduction is performed by principal component analysis. Thereby, noise can be effectively removed from the three-dimensional data of the sample object, and the three-dimensional data can be compressed.

c)かかる寸法データ算出装置20では、推定された所定個数の形状パラメータの値に対し、上記主成分分析に係る射影の逆変換により対象物の3次元データが算出され、3次元データが寸法データに関連付けられる。これにより、対象物のシルエット画像の入力に対し、3次元データを対象物の3次元データを高精度に構成することができる。   c) In the dimension data calculation apparatus 20, the three-dimensional data of the object is calculated by inverse transformation of the projection according to the principal component analysis with respect to the estimated predetermined number of shape parameter values, and the three-dimensional data is the dimension data. Associated with Thereby, it is possible to construct the three-dimensional data of the target object with high accuracy with respect to the input of the silhouette image of the target object.

d)かかる寸法データ算出装置20では、サンプル対象物のシルエット画像が、サンプル対象物の3次元データから構成される3次元物体における所定方向の投影画像である。つまり、サンプル対象物の3次元データを用いて3次元物体を構成した上で、これを投影することによりシルエット画像が得られる。正面方向及び側面方向の2枚のシルエット画像を投影により取得するのがよい。これにより、サンプル対象物のシルエット画像を高精度に生成することができる。   d) In the dimension data calculation apparatus 20, the silhouette image of the sample object is a projection image in a predetermined direction on a three-dimensional object composed of the three-dimensional data of the sample object. That is, a three-dimensional object is constructed using the three-dimensional data of the sample object, and a silhouette image is obtained by projecting it. Two silhouette images in the front direction and the side direction are preferably acquired by projection. Thereby, the silhouette image of the sample object can be generated with high accuracy.

e)かかる寸法データ算出装置20では、対象物エンジン21Aが、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値との関係を学習することにより生成されている。当該学習は、ディープラーニングにより行うことができる。ディープラーニングによる学習を行うことにより、サンプル対象物のシルエット画像とサンプル対象物の形状パラメータの値との対応付けを高精度に行うことができる。   e) In the dimension data calculation device 20, the object engine 21A is generated by learning the relationship between the silhouette image of the sample object and the values of a predetermined number of shape parameters associated with the sample object. The learning can be performed by deep learning. By performing learning by deep learning, the silhouette image of the sample object and the value of the shape parameter of the sample object can be associated with high accuracy.

f)かかる寸法データ算出装置20の算出部24Eでは、対象物について推定された所定個数の形状パラメータの値から、対象物における複数の頂点の3次元データを構成する。そして、構成された3次元データに基づいて、対象物における任意の2つの頂点の間の寸法データを算出する。つまり、対象物の3次元データを用いて3次元物体を構成した上で、この寸法データを算出する。これにより、対象物の3次元物体の形状から2つの頂点の間の寸法データを算出することができるので、採寸対象箇所が特定部分に限定されることがない。   f) The calculation unit 24E of the dimension data calculation device 20 constructs three-dimensional data of a plurality of vertices in the target object from the predetermined number of shape parameter values estimated for the target object. Then, based on the configured three-dimensional data, dimensional data between any two vertices in the object is calculated. That is, after the three-dimensional object is constructed using the three-dimensional data of the object, the dimension data is calculated. Thereby, since the dimension data between two vertices can be calculated from the shape of the three-dimensional object of the target object, the measurement target part is not limited to a specific part.

特に、かかる寸法データ算出装置20の算出部24Eでは、2つの頂点の間の寸法データが、対象物において複数の頂点の3次元データから構成される3次元物体上の曲面に沿って算出される。これにより、寸法データを更に高精度に算出することができる。   In particular, in the calculation unit 24E of the dimension data calculation device 20, dimension data between two vertices is calculated along a curved surface on a three-dimensional object composed of three-dimensional data of a plurality of vertices in the object. . Thereby, the dimension data can be calculated with higher accuracy.

(1−4)変形例
a)上記説明においては、取得部24Aが、対象物を異なる方向から撮影した複数の画像データを取得している。ここでは、対象物を複数の異なる方向から同時に撮影できる撮像装置として、深度データを併せて取得可能な深度データ測定装置が適用可能である。深度データ測定装置の一例はステレオカメラである。本明細書において「ステレオカメラ」
とは、対象物を複数の異なる方向から同時に撮影して、両眼視差を再現する任意の形態の撮像装置を意味している。他方、必ずしも画像データが複数必要であるわけではなく、対象物の画像データが一枚であっても各部分の寸法データを算出することが可能である。
(1-4) Modifications a) In the above description, the acquiring unit 24A acquires a plurality of image data obtained by capturing an object from different directions. Here, a depth data measuring device capable of acquiring depth data together is applicable as an imaging device that can simultaneously photograph an object from a plurality of different directions. An example of the depth data measuring device is a stereo camera. In this specification, “stereo camera”
The term “imaging device” means an arbitrary type of imaging device that captures a subject simultaneously from a plurality of different directions and reproduces binocular parallax. On the other hand, it is not always necessary to have a plurality of image data, and it is possible to calculate the dimension data of each part even if there is only one image data of the object.

b)上記説明においては、グラブカットアルゴリズムを採用して、対象物と対象物以外の背景画像とを分離してもよいものとした。これ以外にも、例えば、取得部24Aにおいて前述のステレオカメラを用いた場合には、ステレオカメラから取得される深度データを用いて、対象物と対象物以外の背景画像とを分離することが可能である。これにより、更に高精度に対象物の形状データを生成することが可能となる。更に、ステレオカメラ以外にも、LiDAR(Light Detection and Ranging)装置により深度データを求め、対象
物と対象物以外の背景画像とを分離することが可能である。すなわち、取得部24Aに深度データを測定できる任意の機械(深度データ測定装置)を用いることで、高精度に対象物の形状データを生成することが可能となる。
b) In the above description, the grab cut algorithm may be adopted to separate the object and the background image other than the object. In addition to this, for example, when the above-described stereo camera is used in the acquisition unit 24A, it is possible to separate an object and a background image other than the object using depth data acquired from the stereo camera. It is. Thereby, it becomes possible to generate the shape data of the object with higher accuracy. In addition to the stereo camera, depth data can be obtained by a LiDAR (Light Detection and Ranging) device, and the object and the background image other than the object can be separated. That is, by using an arbitrary machine (depth data measuring device) capable of measuring the depth data for the acquiring unit 24A, it is possible to generate the shape data of the object with high accuracy.

c)上記説明においては、S13で、前処理部27Aは、形状パラメータのデータ・セットを、乱数を用いて拡張するデータ拡張処理を行った。データ拡張処理は、サンプル対象物の数に応じてどの程度の数まで拡張するかを決定すればよい。サンプル数が予め十分に用意されている場合には、S13の拡張処理は行わなくてもよい。   c) In the above description, in S13, the preprocessing unit 27A performs the data expansion process for extending the shape parameter data set using random numbers. In the data expansion process, it is only necessary to determine the number of samples to be expanded according to the number of sample objects. If the number of samples is sufficiently prepared in advance, the expansion process of S13 may not be performed.

c)上記説明においては、サンプル対象物に対し、形状パラメータ(λ,・・・,λ30)は学習装置25の前処理部27Aにおいて主成分分析によって取得した。ここで、サンプル対象物が「人」である場合の形状パラメータについて更に考察する。前述の例のように400個のサンプル対象物及び5,000個の頂点の3次元データを用いて主成分分析を行った結果、対象物が「人」である場合の形状パラメータは少なくとも次の特性を有することが考察された。 c) In the above description, the shape parameters (λ 1 ,..., λ 30 ) are obtained by principal component analysis in the preprocessing unit 27A of the learning device 25 for the sample object. Here, the shape parameter when the sample object is “human” will be further considered. As a result of the principal component analysis using the three-dimensional data of 400 sample objects and 5,000 vertices as in the above example, the shape parameter when the object is “person” is at least It was considered to have characteristics.

〔特性1〕
第1順位の主成分λは、人の身長との間で線形の関係を有するように関連付けられていた。具体的には、図4に示すように、第1順位の主成分λが大きくなればなるほど、人の身長が小さくなるというものであった。
[Characteristic 1]
The first-order principal component λ 1 was related to have a linear relationship with the height of the person. Specifically, as shown in FIG. 4, the larger the first order principal component λ 1 , the smaller the height of the person.

特性1を考慮すれば、推定部24Dによる人の形状パラメータの値の推定時は、第1順位の主成分λに関しては、対象物エンジン21Aを用いることなく取得部24Aで取得した身長データを利用すればよい。具体的には、第1順位の主成分λの値は、人の身長を説明変数とする線形回帰モデルを利用することにより、別途計算するように構成すればよい。 Considering the characteristics 1, when the estimated value of the shape parameter of the person by the estimation unit 24D, with respect the main component lambda 1 of the first rank, the height data acquired by the acquisition unit 24A without using the object engine 21A Use it. Specifically, the value of the first rank principal component λ 1 may be configured to be calculated separately by using a linear regression model having the human height as an explanatory variable.

この場合、学習段階で学習部27Bにおいて対象物エンジン21Aを生成する時においても、当該主成分λを学習対象から除いてもよい。前述のとおり、学習装置25における学習段階では、ネットワーク・アーキテクチャの重み付けを行う。この際、入力されたシルエット画像を主成分分析することで得られる第1順位の主成分を除いた第2順位以降の主成分と、訓練データである形状パラメータλ以降の値との誤差が最小化されるようにネットワーク・アーキテクチャの重み係数を設定してもよい。これにより、対象物が「人」である場合は、上記線形回帰モデルの利用と併せて、推定部24Dにおける形状パラメータの値の推定精度を向上させることができる。 In this case, even when generating an object engine 21A in the learning unit 27B in the learning stage, it may exclude the main component lambda 1 from the learning target. As described above, in the learning stage of the learning device 25, the network architecture is weighted. At this time, there is an error between the principal components after the second rank excluding the first principal components obtained by performing the principal component analysis on the input silhouette image and the values after the shape parameter λ 2 as training data. The network architecture weighting factor may be set to be minimized. Thereby, when the target is “person”, the estimation accuracy of the value of the shape parameter in the estimation unit 24D can be improved together with the use of the linear regression model.

また、学習段階で学習部27Bにおいて対象物エンジン21Aを生成するときには、第1順位の主成分も含めて、形状パラメータλ以降の値との誤差が最小化されるようにネットワーク・アーキテクチャの重み係数を設定してもよい。そして、第1順位の主成分λの値は、人の身長を説明変数とする線形回帰モデルを利用することにより、別途計算し
た値と置き換えてもよい。これにより、対象物が「人」である場合は、上記線形回帰モデルの利用と併せて、推定部24Dにおける形状パラメータの値の推定精度を向上させることができる。
In addition, when the object engine 21A is generated in the learning unit 27B in the learning stage, the weight of the network architecture is minimized so that an error from the value after the shape parameter λ 1 including the first rank principal component is minimized. A coefficient may be set. Then, the value of the first-order principal component λ 1 may be replaced with a separately calculated value by using a linear regression model having the human height as an explanatory variable. Thereby, when the target is “person”, the estimation accuracy of the value of the shape parameter in the estimation unit 24D can be improved together with the use of the linear regression model.

〔特性2〕
図5は、主成分である形状パラメータの再現率を示した概略グラフである。グラフにおいて横軸が寄与率によって順位付けされた主成分を示し、縦軸が固有値の分散説明率を示している。そして、棒グラフは、順位ごとの個別の分散説明率を示している。また、実線の折れ線グラフは、第1順位からの分散説明率の累積を示している。図5では、簡単のため、第10順位までの10個の主成分に関するグラフを概略的に示している。なお、主成分分析において求められる共分散行列の固有値は固有ベクトル(主成分)の大きさを表しており、固有値の分散説明率は主成分に対する再現率と考えてよい。
[Characteristic 2]
FIG. 5 is a schematic graph showing the recall of the shape parameter as the main component. In the graph, the horizontal axis indicates the principal components ranked by the contribution rate, and the vertical axis indicates the variance explanation rate of the eigenvalues. And the bar graph has shown the individual distribution explanatory rate for every order. The solid line graph indicates the accumulation of the distributed explanation ratios from the first rank. In FIG. 5, for the sake of simplicity, a graph relating to ten principal components up to the tenth rank is schematically shown. Note that the eigenvalue of the covariance matrix obtained in the principal component analysis represents the magnitude of the eigenvector (principal component), and the variance explanation rate of the eigenvalue may be considered as a recall with respect to the principal component.

図5のグラフを参照すると、第1順位から第10順位までの10個の主成分で分散説明率の累積が約0.95を示している(破線矢印)。つまり、第1順位から第10順位までの10個の主成分の再現率が約95%であることが当業者には理解される。すなわち、前述の例では、次元削減によって特徴変換される形状パラメータは30次元としたが、これに限らず、仮に形状パラメータを10次元としても約95%をカバーできている。すなわち、上記説明において形状パラメータの個数(次元数)は30個としたが、特性2を考慮すれば、10個程度のものとしてよい。   Referring to the graph of FIG. 5, the cumulative explanation ratio of the 10 principal components from the first rank to the tenth rank is about 0.95 (broken arrow). That is, a person skilled in the art understands that the recall of the ten principal components from the first rank to the tenth rank is about 95%. That is, in the above-described example, the shape parameter subjected to feature conversion by dimension reduction is 30 dimensions. However, the shape parameter is not limited to this, and about 95% can be covered even if the shape parameter is 10 dimensions. That is, in the above description, the number of shape parameters (the number of dimensions) is 30. However, if the characteristic 2 is considered, the number may be about 10.

d)上記説明においては、学習装置25の前処理部27Aにおいて、10,000個のサンプル対象物ごとに、正面方向及び側面方向の2枚のシルエット画像を投影により取得した。他方、対象物のシルエット画像は必ずしも2枚必要とするわけではなく、1枚でよい。   d) In the above description, in the pre-processing unit 27A of the learning device 25, two silhouette images in the front direction and the side direction are obtained by projection for every 10,000 sample objects. On the other hand, two silhouette images of the object are not necessarily required, and only one is required.

(1−5)製品製造システムへの適用
以下、前述の寸法データ算出装置20を製品製造システム1に適用する例について説明する。
(1-5) Application to Product Manufacturing System Hereinafter, an example in which the above-described dimension data calculation device 20 is applied to the product manufacturing system 1 will be described.

(1−5−1)製品製造システムの構成
図6は本実施形態に係る製品製造システム1の概念を示す模式図である。製品製造システム1は、ユーザ5が保有する端末装置10と通信可能な寸法データ算出装置20と、製品製造装置30とを備え、所望の製品6を製造するためのシステムである。図6では、一例として、対象物7が人であり、製品6が椅子であるときの概念を示している。但し、本実施形態に係る製品製造システム1において、対象物7及び製品6はこれらに限定されるものではない。
(1-5-1) Configuration of Product Manufacturing System FIG. 6 is a schematic diagram showing the concept of the product manufacturing system 1 according to the present embodiment. The product manufacturing system 1 includes a dimension data calculation device 20 that can communicate with the terminal device 10 owned by the user 5 and a product manufacturing device 30, and is a system for manufacturing a desired product 6. In FIG. 6, as an example, the concept when the object 7 is a person and the product 6 is a chair is shown. However, in the product manufacturing system 1 according to the present embodiment, the object 7 and the product 6 are not limited to these.

端末装置10は、所謂スマートデバイスにより実現することができる。ここでは、スマートデバイスに、ユーザ用プログラムがインストールされることで端末装置10が各種機能を発揮する。具体的には、端末装置10は、ユーザ5により撮像される画像データを生成する。ここで、端末装置10は、対象物を複数の異なる方向から同時に撮影して、両眼視差を再現するステレオカメラ機能を有するものでもよい。なお、画像データは端末装置10で撮影されるものに限定されず、例えば、店舗内に設置されたステレオカメラを用いて撮影されたものを利用してもよい。   The terminal device 10 can be realized by a so-called smart device. Here, the terminal device 10 exhibits various functions by installing a user program in the smart device. Specifically, the terminal device 10 generates image data captured by the user 5. Here, the terminal device 10 may have a stereo camera function of simultaneously capturing a subject from a plurality of different directions and reproducing binocular parallax. In addition, image data is not limited to what was image | photographed with the terminal device 10, For example, you may utilize what was image | photographed using the stereo camera installed in the shop.

また、端末装置10は、対象物7の属性を示す属性データの入力を受け付ける。「属性」には、対象物7の全長・重量・生成からの経過時間(年齢を含む。)等が含まれる。また、端末装置10は、通信機能を有しており、寸法データ算出装置20及び製品製造装置30と端末装置10との間で各種情報の送受信を実行する。   In addition, the terminal device 10 receives input of attribute data indicating the attribute of the object 7. The “attribute” includes the total length, weight, elapsed time from generation (including age), and the like of the object 7. Further, the terminal device 10 has a communication function, and executes transmission / reception of various information between the dimension data calculation device 20 and the product manufacturing device 30 and the terminal device 10.

寸法データ算出装置20は任意のコンピュータにより実現することができる。ここでは、寸法データ算出装置20の記憶部21は、端末装置10のユーザ5を識別する識別情報に関連付けて、端末装置10から送信される情報を記憶する。また、記憶部21は、寸法データを算出する情報処理を実行するために必要なパラメータ等を記憶する。   The dimension data calculation device 20 can be realized by an arbitrary computer. Here, the storage unit 21 of the dimension data calculation device 20 stores information transmitted from the terminal device 10 in association with identification information for identifying the user 5 of the terminal device 10. The storage unit 21 also stores parameters and the like necessary for executing information processing for calculating dimension data.

また、寸法データ算出装置20の処理部24は、前述のとおり、取得部24A、抽出部24B、変換部24C、推定部24D、及び算出部24Eとして機能する。ここでは、取得部24Aは、ユーザ5によりステレオカメラで撮影された画像データ及び対象物7の属性データを取得する。また、抽出部24Bは、画像データから対象物7の形状を示す形状データを抽出する。例えば、対象物の種類として「人」が予め設定されている場合には、人を識別するための訓練データを用いてセマンティックセグメンテーションのアルゴリズムが構築されている。また、抽出部24Bは、ステレオカメラから取得される深度データを用いて、対象物と対象物以外の背景画像とを分離するのがよい。変換部24Cは、形状データを全長データに基づいてシルエット画像に変換する。変換部24Cは、生成されたシルエット画像を推定部24Dに入力するための受付部としても機能することになる。   Further, as described above, the processing unit 24 of the dimension data calculation device 20 functions as the acquisition unit 24A, the extraction unit 24B, the conversion unit 24C, the estimation unit 24D, and the calculation unit 24E. Here, the acquisition unit 24 </ b> A acquires the image data captured by the user 5 with the stereo camera and the attribute data of the object 7. Further, the extraction unit 24B extracts shape data indicating the shape of the object 7 from the image data. For example, when “person” is preset as the type of object, an algorithm for semantic segmentation is constructed using training data for identifying a person. In addition, the extraction unit 24B may separate the target object and the background image other than the target object using depth data acquired from the stereo camera. The converter 24C converts the shape data into a silhouette image based on the full length data. The conversion unit 24C also functions as a reception unit for inputting the generated silhouette image to the estimation unit 24D.

推定部24Dは、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジン21Aを使用して、シルエット画像から所定個数の形状パラメータの値を推定する。算出部24Eは、推定された所定個数の形状パラメータの値に基づいて、対象物の寸法データを算出する。具体的には、推定部24Dで推定された対象物の形状パラメータの値から、対象物における複数の頂点の3次元データを構成し、更に、当該3次元データに基づいて対象物における任意の2つの頂点の間の寸法データを算出する。   The estimation unit 24D uses the target object engine 21A that associates the silhouette image of the sample target object with the predetermined number of shape parameter values associated with the sample target object, and then calculates the predetermined number of shape parameter values from the silhouette image. presume. The calculation unit 24E calculates the dimension data of the object based on the estimated number of values of the predetermined number of shape parameters. Specifically, three-dimensional data of a plurality of vertices in the target object is constructed from the value of the shape parameter of the target object estimated by the estimation unit 24D, and any two of the target object based on the three-dimensional data is further configured. Dimension data between two vertices is calculated.

製品製造装置30は、寸法データ算出装置20を用いて算出された少なくとも1つの寸法データを用いて、対象物7の形状に関連する所望の製品を製造する製造装置である。なお、製品製造装置30は、自動で製品を製造・加工できる任意の装置を採用することができ、例えば3次元プリンタ等により実現することができる。   The product manufacturing apparatus 30 is a manufacturing apparatus that manufactures a desired product related to the shape of the object 7 using at least one dimension data calculated using the dimension data calculating apparatus 20. The product manufacturing apparatus 30 can employ any apparatus that can automatically manufacture and process a product, and can be realized by, for example, a three-dimensional printer.

(1−5−2)製品製造システムの動作
図7は、本実施形態に係る製品製造システム1の動作を説明するためのシーケンス図である。また、図8及び図9は端末装置10の画面遷移を示す模式図である。
(1-5-2) Operation of Product Manufacturing System FIG. 7 is a sequence diagram for explaining the operation of the product manufacturing system 1 according to the present embodiment. 8 and 9 are schematic diagrams showing screen transitions of the terminal device 10.

まず、端末装置10を介して対象物7の全体が異なる方向から写るように複数回撮像され、対象物7が撮像された複数の画像データが生成される(T1)。ここでは、図8及び図9にそれぞれ示すような、正面及び側面の写真が複数枚撮影される。このような正面及び側面の写真は端末装置10のステレオカメラ機能をオンにして撮影するのがよい。   First, a plurality of images are captured so that the entire object 7 is captured from different directions via the terminal device 10, and a plurality of image data in which the object 7 is captured is generated (T1). Here, a plurality of front and side photographs as shown in FIGS. 8 and 9 are taken. Such front and side photographs should be taken with the stereo camera function of the terminal device 10 turned on.

次に、ユーザ5により端末装置10に、対象物7の属性を示す属性データが入力される(T2)。ここでは、属性データとして、対象物7の全長データ・重量データ・経時データ(年齢等を含む。)等が入力される。そして、これらの複数の画像データ及び属性データが端末装置10から寸法データ算出装置20に送信される。   Next, attribute data indicating the attribute of the object 7 is input to the terminal device 10 by the user 5 (T2). Here, full length data, weight data, time-dependent data (including age, etc.) of the object 7 are input as attribute data. The plurality of image data and attribute data are transmitted from the terminal device 10 to the dimension data calculation device 20.

寸法データ算出装置20は、端末装置10から複数の画像データ及び属性データを受信すると、これらのデータを用いて対象物7の各部分の寸法データを算出する(T3)。なお、端末装置10には、設定に応じて、寸法データが画面に表示される。そして、製品製造装置30が、寸法データ算出装置20により算出された寸法データに基づいて所望の製品6を製造する(T4)。   When the dimension data calculation device 20 receives a plurality of image data and attribute data from the terminal device 10, the dimension data calculation device 20 calculates the dimension data of each part of the object 7 using these data (T3). The terminal device 10 displays dimension data on the screen according to the setting. Then, the product manufacturing apparatus 30 manufactures a desired product 6 based on the dimension data calculated by the dimension data calculation apparatus 20 (T4).

(1−5−3)製品製造システムの特徴
以上説明したように、本実施形態に係る製品製造システム1は、ユーザ5が保有する端末装置10と通信可能な寸法データ算出装置20と、製品製造装置30とを備える。
(1-5-3) Features of Product Manufacturing System As described above, the product manufacturing system 1 according to this embodiment includes the dimension data calculation device 20 that can communicate with the terminal device 10 owned by the user 5, and the product manufacturing. Device 30.

端末装置10(撮影装置)は、対象物7の画像を複数枚撮影する。寸法データ算出装置20は、取得部24A、抽出部24B、変換部24C、推定部24D、及び算出部24Eを備える。取得部24Aは、対象物が撮影された画像データ及び対象物の全長データを取得する。抽出部24Bは、画像データから対象物の形状を示す形状データを抽出する。変換部24Cは形状データを全長データに基づいてシルエット画像に変換する。推定部24Dは、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジン21Aを使用して、シルエット画像から所定個数の形状パラメータの値を推定する。算出部24Eは、推定された所定個数の形状パラメータの値に基づいて、対象物の寸法データを算出する。製品製造装置30は、算出部24Eにより算出された寸法データを用いて製品6を製造する。このような構成により、寸法データ算出装置20が高精度に対象物7の各部分を高精度に算出するので、対象物7の形状に関連する所望の製品を提供できる。   The terminal device 10 (imaging device) captures a plurality of images of the object 7. The dimension data calculation device 20 includes an acquisition unit 24A, an extraction unit 24B, a conversion unit 24C, an estimation unit 24D, and a calculation unit 24E. The acquiring unit 24A acquires image data obtained by photographing the object and full length data of the object. The extraction unit 24B extracts shape data indicating the shape of the object from the image data. The converter 24C converts the shape data into a silhouette image based on the full length data. The estimation unit 24D uses the target object engine 21A that associates the silhouette image of the sample target object with the predetermined number of shape parameter values associated with the sample target object, and then calculates the predetermined number of shape parameter values from the silhouette image. presume. The calculation unit 24E calculates the dimension data of the object based on the estimated number of values of the predetermined number of shape parameters. The product manufacturing apparatus 30 manufactures the product 6 using the dimension data calculated by the calculation unit 24E. With such a configuration, the dimension data calculation device 20 calculates each part of the object 7 with high accuracy, so that a desired product related to the shape of the object 7 can be provided.

例えば、製品製造システム1により、心臓等の各種臓器の形状の測定から、臓器の模型を製造することができる。また、例えば、人のウェスト形状の測定から各種ヘルスケア製品等を製造することができる。また、例えば、人の形状から当該人のフィギュア製品を製造することができる。また、例えば、人の形状から当該人に適合する椅子等を製造することができる。また、例えば、車の形状から車のおもちゃを製造することができる。また、例えば、任意の風景画からジオラマ等を製造することができる。   For example, an organ model can be manufactured by measuring the shape of various organs such as the heart by the product manufacturing system 1. In addition, for example, various health care products can be manufactured from measurement of a person's waist shape. For example, the figure product of the person can be manufactured from the shape of the person. In addition, for example, a chair or the like suitable for the person can be manufactured from the shape of the person. Also, for example, a car toy can be manufactured from the shape of the car. Further, for example, a diorama or the like can be manufactured from an arbitrary landscape image.

なお、上記説明においては、寸法データ算出装置20と製品製造装置30とが別部材の装置として説明しているが、これらは一体として構成されるものでもよい。   In the above description, the dimension data calculation device 20 and the product manufacturing device 30 are described as separate devices, but they may be configured integrally.

<第2実施形態>
以下、既に説明した構成及び機能については略同一符号を付して説明を省略する。
(2−1)寸法データ算出装置の構成
図10は本実施形態に係る寸法データ算出システム200の構成を示す模式図である。寸法データ算出システム200は、寸法データ算出装置120及び学習装置125を備える。
Second Embodiment
Hereinafter, substantially the same reference numerals are given to the configurations and functions already described, and the description thereof is omitted.
(2-1) Configuration of Dimension Data Calculation Device FIG. 10 is a schematic diagram showing a configuration of a dimensional data calculation system 200 according to this embodiment. The dimension data calculation system 200 includes a dimension data calculation device 120 and a learning device 125.

寸法データ算出装置120は、記憶部121、入出力部122、通信部123、及び処理部124を備える。また、学習装置125は、記憶部126及び処理部127を備える。なお、寸法データ算出装置120及び学習装置125は、LSI、ASIC、FPGA等を用いてハードウェアとして実現されてもよい。   The dimension data calculation device 120 includes a storage unit 121, an input / output unit 122, a communication unit 123, and a processing unit 124. The learning device 125 includes a storage unit 126 and a processing unit 127. The dimension data calculation device 120 and the learning device 125 may be realized as hardware using an LSI, an ASIC, an FPGA, or the like.

記憶部121,126は、何れも各種情報を記憶するものであり、メモリ及びハードディスク等の任意の記憶装置により実現される。例えば、記憶部121は、処理部124において寸法データ算出に関する情報処理を実行するために、対象物エンジン121Aを含む各種データ、プログラム、情報等を格納する。また、記憶部126は、対象物エンジン121Aを生成するために、学習段階で利用される訓練データを格納する。   Each of the storage units 121 and 126 stores various types of information, and is realized by an arbitrary storage device such as a memory and a hard disk. For example, the storage unit 121 stores various data, programs, information, and the like including the target object engine 121 </ b> A in order for the processing unit 124 to perform information processing related to dimensional data calculation. In addition, the storage unit 126 stores training data used in the learning stage in order to generate the object engine 121A.

入出力部122は、前述の入出力部22と同様の構成及び機能を有するものである。また、通信部123は、前述の通信部23と同様の構成及び機能を有するものである。   The input / output unit 122 has the same configuration and function as the input / output unit 22 described above. The communication unit 123 has the same configuration and function as the communication unit 23 described above.

処理部124は、コンピュータのCPU,GPU等に、記憶部121に記憶されたプログラムが読み込まれることにより、取得部124A、推定部124D、及び算出部124
Eとして機能する。同様に、処理部127は、コンピュータのCPU,GPU等に、記憶部126に記憶されたプログラムが読み込まれることにより、前処理部127A及び学習部127Bとして機能する。
The processing unit 124 reads the program stored in the storage unit 121 into a CPU, GPU, or the like of a computer, thereby obtaining an acquisition unit 124A, an estimation unit 124D, and a calculation unit 124.
Functions as E. Similarly, the processing unit 127 functions as a preprocessing unit 127A and a learning unit 127B by reading a program stored in the storage unit 126 into a CPU, GPU, or the like of a computer.

寸法データ算出装置120の処理部124において、取得部124Aは、対象物の全長データ、重量データ、経時データ(年齢等を含む。)とのうちの少なくともいずれかを含む属性データを取得する。本実施形態では、取得部124Aが、属性データを推定部24Dに入力するための受付部としても機能することになる。   In the processing unit 124 of the dimension data calculation device 120, the acquisition unit 124A acquires attribute data including at least one of the full length data, the weight data, and the temporal data (including age and the like) of the target object. In the present embodiment, the acquisition unit 124A also functions as a reception unit for inputting attribute data to the estimation unit 24D.

推定部124Dは、属性データから所定個数の形状パラメータの値を推定する。推定には、対象物エンジン121Aが使用される。推定部124Dで推定された対象物の形状パラメータの値は、後述のように、対象物が有する任意の部位に関連する寸法データに関連付けることができる。   The estimation unit 124D estimates a predetermined number of shape parameter values from the attribute data. The object engine 121A is used for the estimation. The value of the shape parameter of the object estimated by the estimation unit 124D can be associated with dimension data related to an arbitrary part of the object, as will be described later.

算出部124Eは、推定部124Dによって推定された対象物の形状パラメータの値から、対象物の寸法データを算出する。具体的には、算出部124Eは、推定部124Dで推定された対象物の形状パラメータの値から、対象物における複数の頂点の3次元データを構成し、更に、当該3次元データに基づいて対象物における任意の2つの頂点の間の寸法データを算出する。   The calculation unit 124E calculates the dimension data of the object from the value of the shape parameter of the object estimated by the estimation unit 124D. Specifically, the calculation unit 124E configures three-dimensional data of a plurality of vertices in the target object from the value of the shape parameter of the target object estimated by the estimation unit 124D, and further, based on the three-dimensional data Dimension data between any two vertices in the object is calculated.

学習装置125の処理部127において、前処理部127Aは、学習のための各種前処理を実施する。特に、前処理部127Aは、サンプル対象物の3次元データを次元削減により特徴抽出することを通じて、所定個数の形状パラメータを特定する。サンプル対象物の形状パラメータの値、及び対応する属性データは、訓練データとして予め記憶部126に格納されている。   In the processing unit 127 of the learning device 125, the preprocessing unit 127A performs various preprocessing for learning. In particular, the preprocessing unit 127A specifies a predetermined number of shape parameters through feature extraction of the three-dimensional data of the sample object by dimension reduction. The value of the shape parameter of the sample object and the corresponding attribute data are stored in advance in the storage unit 126 as training data.

なお、サンプル対象物の3次元データとして、対応する属性データ(全長データ、重量データ、経時データ(年齢等を含む。))が用意されているとする。対応する属性データは、訓練データとして記憶部126に格納される。   It is assumed that corresponding attribute data (full length data, weight data, time-dependent data (including age, etc.)) is prepared as the three-dimensional data of the sample object. Corresponding attribute data is stored in the storage unit 126 as training data.

学習部127Bは、サンプル対象物の形状パラメータの値と、対応する属性データとの関係を関連付けるように学習する。学習の結果、対象物エンジン121Aが生成される。生成された対象物エンジン121Aは、電子ファイルの形態で保持できる。寸法データ算出装置120で対象物の寸法データを算出する際には、対象物エンジン121Aは、記憶部121に格納され推定部124Dによって参照される。   The learning unit 127B learns to associate the relationship between the value of the shape parameter of the sample object and the corresponding attribute data. As a result of learning, an object engine 121A is generated. The generated object engine 121A can be held in the form of an electronic file. When the dimension data calculation device 120 calculates the dimension data of the object, the object engine 121A is stored in the storage unit 121 and referenced by the estimation unit 124D.

(2−2)寸法データ算出システムの動作
図11及び図12を参照して、図10の寸法データ算出システム200の動作を説明する。図11は、学習装置125の動作(S110)を示すフローチャートであり、ここでは、サンプル対象物データに基づいて対象物エンジン121Aを生成する。図12は寸法データ算出装置120の動作を示すフローチャートであり、ここでは、対象物の画像データに基づいて対象物の寸法データを算出する。
(2-2) Operation of Dimension Data Calculation System The operation of the dimensional data calculation system 200 of FIG. 10 will be described with reference to FIGS. FIG. 11 is a flowchart showing the operation (S110) of the learning device 125. Here, the object engine 121A is generated based on the sample object data. FIG. 12 is a flowchart showing the operation of the dimension data calculation device 120. Here, the dimension data of the object is calculated based on the image data of the object.

(2−2−1)学習装置の動作
最初に、サンプル対象物のデータが準備され、記憶部126に格納される(S111)。一例では、準備されるデータは、400個のサンプル対象物のデータであり、サンプル対象物ごとに準備される5,000個の3次元データと、サンプル対象物ごとに準備される属性データとを含む。3次元データには、サンプル対象物が有する頂点の3次元座標データが含まれる。また、3次元データには、3次元物体を構成する各メッシュの頂点情報及び各頂点の法線方向等のメッシュ・データが含まれてもよい。
(2-2-1) Operation of Learning Device First, sample object data is prepared and stored in the storage unit 126 (S111). In one example, the prepared data is data of 400 sample objects, and 5,000 pieces of three-dimensional data prepared for each sample object and attribute data prepared for each sample object are included. Including. The three-dimensional data includes the three-dimensional coordinate data of the vertices of the sample object. Further, the three-dimensional data may include mesh data such as vertex information of each mesh constituting the three-dimensional object and a normal direction of each vertex.

また、第1実施形態と同様、サンプル対象物の3次元データは、頂点番号と共に部位の情報が関連付けられている。   Similarly to the first embodiment, the three-dimensional data of the sample object is associated with the part information together with the vertex number.

続いて、前処理部127Aは、次元削減により、所定個数(次元)の形状パラメータへの特徴変換を行う(S112)。この特徴変換処理も第1実施形態と同様である。前述の例では、主成分分析に係る射影行列を用いた行列演算の結果、400個のサンプル対象物がそれぞれ有する15,000次元(5,000×3)のデータは、例えば30次元の主成分の形状パラメータΛに特徴変換される。   Subsequently, the preprocessing unit 127A performs feature conversion into a predetermined number (dimensions) of shape parameters by dimension reduction (S112). This feature conversion process is also the same as in the first embodiment. In the above example, as a result of matrix calculation using the projection matrix for principal component analysis, the 15,000-dimensional (5,000 × 3) data of each of the 400 sample objects is, for example, a 30-dimensional principal component Is transformed into a shape parameter Λ.

そして、学習部127Bが、S111で準備された複数のサンプル対象物の属性データと、S112で得た複数の形状パラメータのデータ・セットとの組を訓練データに用いて、両者の関係を機械学習する(S115)。   Then, the learning unit 127B uses the combination of the attribute data of the plurality of sample objects prepared in S111 and the data set of the plurality of shape parameters obtained in S112 as training data, and machine learning the relationship between the two (S115).

具体的には、学習部27Bは、対象物の属性データから、変換属性データYを求める。変換属性データYの要素yと形状パラメータΛの要素λとを関連づける変換行列Zの要素をzrmと表記する。変換行列Zは、〔s行、n列〕からなる行列である。また、記号mは、1≦m≦nであり、前述の例ではnは形状パラメータΛの次元数である30である。記号rは、1≦r≦sであり、sは変換属性データYから得られる演算に用いられる要素の数である。 Specifically, the learning unit 27B obtains conversion attribute data Y from the attribute data of the target object. The element of the transformation matrix Z that associates the element y r of the transformation attribute data Y with the element λ m of the shape parameter Λ is denoted as z rm . The transformation matrix Z is a matrix composed of [s rows and n columns]. The symbol m is 1 ≦ m ≦ n. In the above example, n is 30, which is the number of dimensions of the shape parameter Λ. The symbol r is 1 ≦ r ≦ s, and s is the number of elements used in the calculation obtained from the conversion attribute data Y.

例えば、対象物の属性データが全長データh、重量データw、及び経時データaからなるものと想定する。つまり、属性データは、(h,w,a)の要素のセットである。この場合、学習部27Bは、対象物の属性データの各要素(h,w,a)を2乗した値(二次項ともいう。)と、各要素を掛け合わせた値(相互作用項ともいう。)と、各要素自体の値(一次項ともいう。)とを求める。   For example, it is assumed that the attribute data of the object includes full length data h, weight data w, and time-lapse data a. That is, the attribute data is a set of elements (h, w, a). In this case, the learning unit 27B multiplies each element (h, w, a) of the attribute data of the target object (h, w, a) to a square (also referred to as a secondary term) and a value obtained by multiplying each element (also referred to as an interaction term). And the value of each element itself (also referred to as a primary term).

その結果、次の9個の要素を有する変換属性データYが得られる。

Figure 0006593830
As a result, conversion attribute data Y having the following nine elements is obtained.
Figure 0006593830

次に、学習部27Bは、400個のサンプル対象物に関連付けられた属性データから得られる変換属性データYと、サンプル対象物の3次元データから得られた形状パラメータΛとの組を回帰分析することにより、次に示すような、〔9行、30列〕からなる変換行列Zを求める。   Next, the learning unit 27B performs regression analysis on a set of transformation attribute data Y obtained from attribute data associated with 400 sample objects and shape parameters Λ obtained from three-dimensional data of the sample objects. Thus, a transformation matrix Z composed of [9 rows, 30 columns] as shown below is obtained.

Figure 0006593830
このようにして求められた変換行列Zのデータは、対象物エンジン121Aとして記憶部26に記憶される。
Figure 0006593830
The data of the transformation matrix Z obtained in this way is stored in the storage unit 26 as the object engine 121A.

(2−2−2)寸法データ算出装置の動作
寸法データ算出装置120は、学習装置125で生成された対象物エンジン121Aの
電子ファイル、及び学習装置125で得た主成分分析の射影情報を記憶部121に格納して、対象物の寸法データ算出に使用する。
(2-2-2) Operation of Dimension Data Calculation Device The dimension data calculation device 120 stores the electronic file of the object engine 121A generated by the learning device 125 and the projection information of the principal component analysis obtained by the learning device 125. It is stored in the unit 121 and used to calculate the dimension data of the object.

最初に、取得部124Aは、入出力部122を通じて、対象物の属性データを取得する(S121)。これにより、対象物の属性データを受け付ける。次いで、予め記憶部121に格納された対象物エンジン121Aを使用して、推定部124Dは、受け付けた属性データから対象物の形状パラメータの値を推定する(S124)。   First, the acquiring unit 124A acquires the attribute data of the object through the input / output unit 122 (S121). Thereby, the attribute data of the object is received. Next, using the object engine 121A stored in advance in the storage unit 121, the estimation unit 124D estimates the value of the shape parameter of the object from the received attribute data (S124).

例えば、対象物の属性データが全長データh、重量データw、及び経時データaからなるものと想定する。つまり、属性データは、(h,w,a)の要素のセットである。S124では、上述したように、推定部124Dは、対象物の属性データの各要素(h,w,a)を2乗した値と、各要素を掛け合わせた値と、各要素自体の値とからなる変換属性データYを得る。   For example, it is assumed that the attribute data of the object includes full length data h, weight data w, and time-lapse data a. That is, the attribute data is a set of elements (h, w, a). In S124, as described above, the estimation unit 124D calculates a value obtained by squaring each element (h, w, a) of the attribute data of the target object, a value obtained by multiplying each element, and a value of each element itself. Conversion attribute data Y consisting of

最後に、算出部124Eは、対象物の形状パラメータの値に基づいて、対象物が有する部位に関連する寸法データを算出する(S125)。具体的には、取得部124Aが取得した対象物の属性データから、変換属性データYを算出する。そして、その変換属性データYに上述した変換行列Zを掛け合わせることで形状パラメータΛを算出する。この後は、第1実施形態におけるもの(S25)と同様に、3次元データから3次元物体を仮想的に構成し、3次元物体上の曲面に沿って2つの頂点の間の寸法データを算出する。なお、立体的な距離の計算には、3次元物体を構成する各メッシュの頂点情報及び各頂点の法線方向等のメッシュ・データを用いることができる。   Finally, the calculation unit 124E calculates dimensional data related to the part of the object based on the value of the shape parameter of the object (S125). Specifically, the conversion attribute data Y is calculated from the attribute data of the object acquired by the acquisition unit 124A. Then, the shape parameter Λ is calculated by multiplying the conversion attribute data Y by the conversion matrix Z described above. Thereafter, as in the first embodiment (S25), a three-dimensional object is virtually constructed from three-dimensional data, and dimension data between two vertices are calculated along a curved surface on the three-dimensional object. To do. In addition, mesh data such as vertex information of each mesh constituting the three-dimensional object and the normal direction of each vertex can be used for the calculation of the three-dimensional distance.

このように、本実施形態の寸法データ算出装置120は、対象物エンジン121Aを使用することにより、対象物の属性データから所定個数の形状パラメータの値を高精度に推定することができる。第1実施形態とは異なり、対象物の画像入力の必要がなく、かつ図3のS22(形状データの抽出処理)及びS23(リスケール処理)を必要としないので、効率的である。   Thus, the dimension data calculation apparatus 120 of this embodiment can estimate the value of the predetermined number of shape parameters from the attribute data of the object with high accuracy by using the object engine 121A. Unlike the first embodiment, there is no need to input an image of an object, and S22 (shape data extraction processing) and S23 (rescaling processing) in FIG. 3 are not required, which is efficient.

また、高精度に推定された形状パラメータの値から、対象物の3次元データを高精度に復元することができるので、特定部位のみならず任意の2つの頂点間を採寸対象箇所として、高精度に算出することができる。特に、算出される2つの頂点の間の寸法データは、3次元データから構成される3次元物体に基づいて、立体的な形状に沿って算出されるので、高精度である。   In addition, since the three-dimensional data of the object can be restored with high accuracy from the value of the shape parameter estimated with high accuracy, high accuracy can be achieved between any two vertices as well as a specific part. Can be calculated. In particular, since the calculated dimension data between two vertices is calculated along a three-dimensional shape based on a three-dimensional object composed of three-dimensional data, it is highly accurate.

(2−3)寸法データ算出システムの特徴
以上説明したように、本実施形態に係る寸法データ算出システム200は、寸法データ算出装置120及び学習装置125を備える。寸法データ算出装置120の一部として構成される情報処理装置は、取得部(受付部)124A、推定部124D、及び算出部124Eを備える。取得部(受付部)124Aは、対象物の属性データを受け付ける。推定部124Dは、サンプル対象物の属性データと、サンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジン121Aを使用して、受け付けた属性データから対象物の形状パラメータの値を推定する。そして、推定された対象物の形状パラメータの値が、対象物が有する任意の部位に関連する寸法データに関連付けられる。
(2-3) Features of Dimension Data Calculation System As described above, the dimension data calculation system 200 according to the present embodiment includes the dimension data calculation device 120 and the learning device 125. The information processing apparatus configured as a part of the dimension data calculation apparatus 120 includes an acquisition unit (accepting unit) 124A, an estimation unit 124D, and a calculation unit 124E. The acquisition unit (accepting unit) 124A receives the attribute data of the object. The estimation unit 124D uses the object engine 121A in which the attribute data of the sample object and the values of a predetermined number of shape parameters associated with the sample object are associated, and the object shape parameter is determined from the received attribute data. Estimate the value of. Then, the estimated value of the shape parameter of the object is associated with dimension data related to an arbitrary part of the object.

したがって、寸法データ算出装置120は、予め作成済みの対象物エンジン121Aを使用することにより、属性データから所定個数の形状パラメータの値を効率的に推定することができる。また、推定される形状パラメータの値は高精度である。また、高精度に推定された形状パラメータの値を用いることで、対象物の任意の部位に関連するデータを効率的且つ高精度で算出することができる。このように、寸法データ算出装置120によれ
ば、対象物について算出される寸法データを効率的且つ高精度で提供することができる。
Therefore, the dimension data calculation apparatus 120 can efficiently estimate the value of a predetermined number of shape parameters from the attribute data by using the object engine 121A that has been created in advance. The estimated shape parameter value is highly accurate. In addition, by using the shape parameter value estimated with high accuracy, it is possible to efficiently and highly accurately calculate data related to an arbitrary part of the object. Thus, according to the dimension data calculation apparatus 120, the dimension data calculated about an object can be provided efficiently and with high accuracy.

(2−4)製品製造システムへの適用
図13は本実施形態に係る製品製造システム1Sの概念を示す模式図である。本実施形態に係る寸法データ算出装置120も、第1実施形態に係る寸法データ算出装置20と同様に、製品製造システム1Sに適用することが可能である。
(2-4) Application to Product Manufacturing System FIG. 13 is a schematic diagram showing a concept of a product manufacturing system 1S according to the present embodiment. The dimension data calculation device 120 according to the present embodiment can also be applied to the product manufacturing system 1S, similarly to the dimension data calculation device 20 according to the first embodiment.

本実施形態に係る端末装置10Sは、対象物7の属性を示す属性データの入力を受け付けるものであればよい。「属性」としては、対象物7の全長・重量・生成からの経過時間(年齢を含む)等が挙げられる。   The terminal device 10 </ b> S according to the present embodiment only needs to accept input of attribute data indicating the attribute of the object 7. Examples of the “attribute” include the total length, weight, and elapsed time (including age) from the generation of the object 7.

また、前述のように、寸法データ算出装置120の処理部124は、取得部124A、推定部124D、及び算出部124Eとして機能する。算出部124Eは、推定部124Dで得られた対象物の形状パラメータの値に基づいて、対象物が有する部位に関連する寸法データを算出する   Further, as described above, the processing unit 124 of the dimension data calculation device 120 functions as the acquisition unit 124A, the estimation unit 124D, and the calculation unit 124E. The calculation unit 124E calculates dimension data related to a part of the target object based on the value of the shape parameter of the target object obtained by the estimation unit 124D.

製品製造システム1Sでは、寸法データ算出装置120が効率的且つ高精度に対象物7の寸法データを算出するので、対象物7の形状に関連する所望の製品を提供できる。その他、第2実施形態に係る製品製造システム1Sは、第1実施形態の製品製造システム1と同様の効果を発揮することができる。   In the product manufacturing system 1S, since the dimension data calculation device 120 calculates the dimension data of the object 7 efficiently and with high accuracy, a desired product related to the shape of the object 7 can be provided. In addition, the product manufacturing system 1S according to the second embodiment can exhibit the same effects as the product manufacturing system 1 of the first embodiment.

<他の実施形態>
本開示は、上記各実施形態そのままに限定されるものではない。本開示は、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できるものである。また、本開示は、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の開示を形成できるものである。例えば、実施形態に示される全構成要素から幾つかの構成要素は削除してもよいものである。さらに、異なる実施形態に構成要素を適宜組み合わせてもよいものである。
<Other embodiments>
The present disclosure is not limited to the above embodiments as they are. The present disclosure can be embodied by modifying the components without departing from the scope of the disclosure in the implementation stage. Further, the present disclosure can form various disclosures by appropriately combining a plurality of constituent elements disclosed in the respective embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements may be appropriately combined in different embodiments.

1,1S・・・製品製造システム、100,200…寸法データ算出システム、20,120…寸法データ算出装置、21,26,121,126…記憶部、21A,121A…対象物エンジン、22,122…入出力部、23,123…通信部、24,27,124,127…処理部、24A,124A…取得部、24B…抽出部、24C…変換部、24D,124D…推定部、24E,124E…算出部、25,125…学習装置、27A,127A…前処理部、27B,127B…学習部 DESCRIPTION OF SYMBOLS 1,1S ... Product manufacturing system, 100, 200 ... Dimension data calculation system, 20, 120 ... Dimension data calculation apparatus, 21, 26, 121, 126 ... Storage part, 21A, 121A ... Object engine, 22, 122 ... input / output unit, 23,123 ... communication unit, 24,27,124,127 ... processing unit, 24A, 124A ... acquisition unit, 24B ... extraction unit, 24C ... conversion unit, 24D, 124D ... estimation unit, 24E, 124E ... Calculation unit, 25, 125 ... Learning device, 27A, 127A ... Pre-processing unit, 27B, 127B ... Learning unit

特開2017−018158号公報JP 2017-018158 A

Claims (11)

対象物の全長データと重量データとの少なくともいずれか1つを含む属性データを受け付ける受付部と、
サンプル対象物の全長データと重量データとの少なくともいずれか1つを含む属性データと前記サンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジンを使用して、前記受け付けた属性データから前記対象物の形状パラメータの値を推定する推定部と、
を備え、前記推定された対象物の形状パラメータの値が、前記対象物が有する任意の部位に関連する寸法データに関連付けられる、情報処理装置。
A receiving unit for receiving attribute data including at least one of the total length data and the weight data of the object;
And attribute data including at least one of the full length data and the weight data of the sample object, using an object engine which associates the value of the shape parameters of a predetermined number associated with the sample object, An estimation unit for estimating a value of a shape parameter of the object from the received attribute data;
An information processing apparatus, wherein the estimated shape parameter value of the target object is associated with dimensional data related to an arbitrary part of the target object.
前記対象物エンジンにおいて、前記サンプル対象物の3次元データに対応した属性データと、前記3次元データを特徴変換することによって特定された前記所定個数の形状パラメータの値とが関連付けられる、請求項1記載の情報処理装置。  The attribute data corresponding to the three-dimensional data of the sample object is associated with the predetermined number of shape parameter values specified by characteristic conversion of the three-dimensional data in the object engine. The information processing apparatus described. 前記サンプル対象物に関連付けられた所定個数の形状パラメータが、前記サンプル対象物の3次元データを次元削減することによって得られる、請求項1または2記載の情報処理装置。 The information processing apparatus according to claim 1 or 2 , wherein a predetermined number of shape parameters associated with the sample object are obtained by reducing the dimensions of the three-dimensional data of the sample object. 前記次元削減が主成分分析により行われ、第1順位の主成分を除いた第2順位以降の所定個数の主成分が前記形状パラメータに選択される、請求項記載の情報処理装置。 The information processing apparatus according to claim 3 , wherein the dimension reduction is performed by principal component analysis, and a predetermined number of principal components after the second order excluding the first order principal components are selected as the shape parameter. 前記対象物が人であり、前記第1順位の主成分が人の身長に関連付けられ、前記属性データの全長データが前記の身長データに対応する、請求項4記載の情報処理装置。 The information processing apparatus according to claim 4, wherein the object is a person, the principal component of the first rank is associated with a person's height, and full length data of the attribute data corresponds to the person 's height data. 前記対象物及び前記サンプル対象物が人である、請求項1から5の何れか一項記載の情報処理装置。  The information processing apparatus according to any one of claims 1 to 5, wherein the object and the sample object are people. 前記対象物エンジンが、前記サンプル対象物の属性データと前記サンプル対象物に関連付けられた所定個数の形状パラメータの値との関係を学習することにより生成されている、請求項1からの何れか一項記載の情報処理装置。 The object engine, the sample object attribute data that is generated by learning the relationship between the value of the shape parameter of the predetermined number associated with the sample object, any one of claims 1 to 6 The information processing apparatus according to one item. 前記対象物について前記推定された形状パラメータの値から、前記対象物における複数の頂点の3次元データを構成し、前記構成された3次元データに基づいて、前記対象物における任意の2つの前記頂点の間の寸法データを算出する算出
を更に備える、請求項1からの何れか一項記載の情報処理装置。
From the estimated shape parameter value for the object, three-dimensional data of a plurality of vertices in the object is constructed, and any two of the vertices in the object are constructed based on the constructed three-dimensional data The information processing apparatus according to any one of claims 1 to 7 , further comprising a calculation unit that calculates dimensional data between the two.
前記算出部において、前記2つの頂点の間の寸法データが、前記対象物における前記複数の頂点の3次元データから構成される3次元物体上の曲面に沿って算出される、請求項記載の情報処理装置。 In the calculating unit, dimension data between the two vertices, the calculated along the curved surface of the three-dimensional object composed of three-dimensional data of the plurality of vertices in the object, according to claim 8 Information processing device. サンプル対象物の全長データと重量データとの少なくともいずれか1つを含む属性データと前記サンプル対象物に関連付けられた所定個数の形状パラメータの値との関係を学習させ、対象物エンジンを生成するステップと、
対象物の全長データと重量データとの少なくともいずれか一つを含む属性データを受け付けるステップと、
前記受け付けた属性データから前記対象物の形状パラメータの値を推定する推定ステップと、
前記対象物の形状パラメータの値に基づいて、前記対象物が有する部位に関連する寸法データを算出するステップと、
を含む、情報処理方法。
And attribute data including at least one of the full length data and the weight data of the sample object, and the values of the shape parameters of the predetermined number associated with the sample object, a relationship is learned, the Target product engine Generating step;
Receiving attribute data including at least one of full length data and weight data of the object;
An estimation step of estimating a value of a shape parameter of the object from the received attribute data;
Calculating dimension data relating to a part of the object based on a value of a shape parameter of the object;
Including an information processing method.
前記対象物エンジンにおいて、前記サンプル対象物の3次元データに対応した前記属性データと、前記3次元データを特徴変換することによって特定された前記所定個数の形状パラメータの値とが関連付けられる、請求項10記載の方法。  The object engine is configured to associate the attribute data corresponding to the three-dimensional data of the sample object with the values of the predetermined number of shape parameters specified by characteristic conversion of the three-dimensional data. 10. The method according to 10.
JP2019122719A 2019-07-01 2019-07-01 Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus Active JP6593830B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019122719A JP6593830B1 (en) 2019-07-01 2019-07-01 Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019122719A JP6593830B1 (en) 2019-07-01 2019-07-01 Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019082513A Division JP6579353B1 (en) 2018-11-30 2019-04-24 Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus

Publications (2)

Publication Number Publication Date
JP6593830B1 true JP6593830B1 (en) 2019-10-23
JP2020179662A JP2020179662A (en) 2020-11-05

Family

ID=68314113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019122719A Active JP6593830B1 (en) 2019-07-01 2019-07-01 Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus

Country Status (1)

Country Link
JP (1) JP6593830B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005315846A (en) * 2004-03-31 2005-11-10 Mitsubishi Space Software Kk Three-dimensional information extraction device and method, computer-readable recording medium recording program, and program
CN108352068A (en) * 2015-11-18 2018-07-31 皇家飞利浦有限公司 Method and apparatus for the absolute dimension size for estimating test object
JP2018180662A (en) * 2017-04-05 2018-11-15 前田建設工業株式会社 Material receiving inspection system
US11514596B2 (en) * 2017-12-27 2022-11-29 Panasonic Intellectual Property Management Co., Ltd. Shape identification device and delivery box

Also Published As

Publication number Publication date
JP2020179662A (en) 2020-11-05

Similar Documents

Publication Publication Date Title
US10489683B1 (en) Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
JP6522060B2 (en) Object recognition device, classification tree learning device and operation method thereof
US11010896B2 (en) Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation
JP4950787B2 (en) Image processing apparatus and method
CN108475438B (en) Learning-based embedded face reconstruction
JP6116784B1 (en) 3D model generation system, 3D model generation method, and program
US9852358B2 (en) Information processing device, information processing method, and information processing system
JP4930854B2 (en) Joint object position / posture estimation apparatus, method and program thereof
JP2021535499A (en) Face Posture Estimate / 3D Face Reconstruction Methods, Devices, and Electronic Devices
US11507781B2 (en) Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
JP2021111114A (en) Learning data generating program and learning data generation method and estimation device
Vejdemo-Johansson et al. Cohomological learning of periodic motion
JP2014018376A5 (en)
JP2014085933A (en) Three-dimensional posture estimation apparatus, three-dimensional posture estimation method, and program
JP6579353B1 (en) Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus
JP2010211732A (en) Object recognition device and method
JP6792273B2 (en) Dimension data calculation device, product manufacturing device, and silhouette image generation device
JP6593830B1 (en) Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus
JP2008171074A (en) Three-dimensional shape model generation device, three-dimensional shape model generation method, computer program, and three-dimensional model generation system
US11922649B2 (en) Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus
KR20210070874A (en) 3d human body model reconstruction apparatus and method
JP7141610B1 (en) Program, device and method for statistically analyzing posture based on skeleton from skin model
KR102258114B1 (en) apparatus and method for tracking pose of multi-user
JP6531273B1 (en) Dimension data calculation apparatus, program, method, product manufacturing apparatus, and product manufacturing system
JP2020204575A (en) Size data calculation device, program, method, product manufacturing device, and product manufacturing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190701

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190917

R150 Certificate of patent or registration of utility model

Ref document number: 6593830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250