JP2020204575A - Size data calculation device, program, method, product manufacturing device, and product manufacturing system - Google Patents

Size data calculation device, program, method, product manufacturing device, and product manufacturing system Download PDF

Info

Publication number
JP2020204575A
JP2020204575A JP2019113083A JP2019113083A JP2020204575A JP 2020204575 A JP2020204575 A JP 2020204575A JP 2019113083 A JP2019113083 A JP 2019113083A JP 2019113083 A JP2019113083 A JP 2019113083A JP 2020204575 A JP2020204575 A JP 2020204575A
Authority
JP
Japan
Prior art keywords
data
unit
shape
dimensional
dimensional data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019113083A
Other languages
Japanese (ja)
Inventor
佐藤大輔
Daisuke Sato
有田親史
Chikashi ARITA
石橋佳久
Yoshihisa ISHIBASHI
八登浩紀
Hiroki YATO
田嶋亮介
Ryosuke Tajima
大田佳宏
Yoshihiro Ota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Arithmer Inc
Original Assignee
Arithmer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Arithmer Inc filed Critical Arithmer Inc
Priority to JP2019113083A priority Critical patent/JP2020204575A/en
Publication of JP2020204575A publication Critical patent/JP2020204575A/en
Pending legal-status Critical Current

Links

Abstract

To provide precise size data of each part of a target object.SOLUTION: A size data calculation device 1020 includes an acquisition unit 1024A, an extraction unit 1024B, a conversion unit 1024C, and a calculation unit 1024D. The acquisition unit 1024A acquires image data of a target object and total length data of the object. The extraction unit 1024B extracts shape data showing the shape of the object from the image data. The conversion unit 1024C converts the shape data on the basis of the total length data into a silhouette. The calculation unit 1024D calculates the size data of each part of the object by using the shape data converted by the conversion unit 1024C.SELECTED DRAWING: Figure 4

Description

本開示は、寸法データ算出装置、プログラム、方法、製品製造装置、及び製品製造システムに関する。 The present disclosure relates to dimensional data calculation devices, programs, methods, product manufacturing devices, and product manufacturing systems.

従来、対象物の形状に基づいて製品を製造する装置が検討されている。例えば、特許文献1(特開2017−018158号公報)には、指の爪を撮影して爪画像を得、取得された爪画像に基づいて、爪の形状、爪の位置、爪の曲率等の付け爪作成に必要な爪情報を得、これを記憶し、この爪情報に基づいて付け爪パーツを作成する技術が開示されている。 Conventionally, an apparatus for manufacturing a product based on the shape of an object has been studied. For example, in Patent Document 1 (Japanese Unexamined Patent Publication No. 2017-018158), a fingernail is photographed to obtain a nail image, and based on the obtained nail image, the shape of the nail, the position of the nail, the curvature of the nail, etc. Disclosed is a technique for obtaining nail information necessary for creating a nail, storing the information, and creating a nail part based on the information.

しかしながら、従来技術では、対象物における多数の形状を高精度に算出することが困難であった。 However, with the prior art, it has been difficult to calculate a large number of shapes in an object with high accuracy.

第1観点の寸法データ算出装置は、取得部と、抽出部と、変換部と、算出部とを備える。取得部は、対象物が撮影された画像データ及び対象物の全長データを取得する。抽出部は、画像データから対象物の形状を示す形状データを抽出する。変換部は、形状データを全長データに基づいて変換し、シルエット化する。算出部は、変換部により変換された形状データを用いて、対象物の各部分の寸法データを算出する。このような構成により、寸法データ算出装置は、対象物の各部分の高精度な寸法データを提供できる。 The dimension data calculation device of the first aspect includes an acquisition unit, an extraction unit, a conversion unit, and a calculation unit. The acquisition unit acquires the image data in which the object is photographed and the total length data of the object. The extraction unit extracts shape data indicating the shape of the object from the image data. The conversion unit converts the shape data based on the total length data and creates a silhouette. The calculation unit calculates the dimensional data of each part of the object by using the shape data converted by the conversion unit. With such a configuration, the dimensional data calculation device can provide highly accurate dimensional data of each part of the object.

第2観点の寸法データ算出装置は、取得部及び算出部を備える。取得部は、対象物の全長データと重量データと経時データとのうちの少なくともいずれかを含む属性データを取得する。算出部は、属性データを用いて、対象物の各部分の寸法データを算出する。これらの属性データを用いることにより、寸法データ算出装置は、対象物の各部分の高精度な寸法データを提供できる。 The dimension data calculation device of the second aspect includes an acquisition unit and a calculation unit. The acquisition unit acquires attribute data including at least one of the total length data, the weight data, and the time-dependent data of the object. The calculation unit calculates the dimensional data of each part of the object by using the attribute data. By using these attribute data, the dimensional data calculation device can provide highly accurate dimensional data of each part of the object.

第3観点の情報処理装置は、対象物のシルエット画像を受け付ける受付部と、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジンを使用して、受け付けたシルエット画像から対象物の形状パラメータの値を推定する推定部と、を備え、推定された対象物の形状パラメータの値が、対象物が有する任意の部位に関連する寸法データに関連付けられる。このような構成により、対象物について算出される寸法データを高精度で提供することができる。 The information processing device of the third aspect uses a reception unit that receives a silhouette image of an object, and an object engine that associates the silhouette image of the sample object with the values of a predetermined number of shape parameters associated with the sample object. Then, an estimation unit that estimates the value of the shape parameter of the object from the received silhouette image is provided, and the estimated value of the shape parameter of the object is converted into dimensional data related to an arbitrary part of the object. Be associated. With such a configuration, it is possible to provide dimensional data calculated for an object with high accuracy.

第4観点の情報処理装置は、対象物の属性データを受け付ける受付部と、サンプル対象物の属性データとサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジンを使用して、受け付けた属性データから対象物の形状パラメータの値を推定する推定部と、を備え、推定された対象物の形状パラメータの値が、対象物が有する任意の部位に関連する寸法データに関連付けられる。このような構成により、対象物について算出される寸法データを高精度で提供することができる。 The information processing device of the fourth aspect uses a reception unit that receives the attribute data of the object, and an object engine that associates the attribute data of the sample object with the values of a predetermined number of shape parameters associated with the sample object. Then, an estimation unit that estimates the value of the shape parameter of the object from the received attribute data is provided, and the estimated value of the shape parameter of the object is converted into dimensional data related to an arbitrary part of the object. Be associated. With such a configuration, it is possible to provide dimensional data calculated for an object with high accuracy.

第5観点の寸法データ算出装置は、対象物が撮影された画像データ及び対象物の全長データを取得する取得部と、画像データから対象物の形状を示す形状データを抽出する抽出部と形状データを全長データに基づいてシルエット画像に変換する変換部と、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジンを使用して、シルエット画像から所定個数の形状パラメータの値を推定する推定部と、推定された所定個数の形状パラメータの値に基づいて、対象物の寸法データを算出する算出部と、を備える。このような構成により、対象物について算出される寸法データを高精度で提供することができる。 The dimensional data calculation device of the fifth viewpoint has an acquisition unit that acquires image data of the object and full length data of the object, and an extraction unit and shape data that extracts shape data indicating the shape of the object from the image data. A silhouette image using a converter that converts the image into a silhouette image based on full-length data, and an object engine that associates the silhouette image of the sample object with the values of a predetermined number of shape parameters associated with the sample object. It is provided with an estimation unit that estimates the values of a predetermined number of shape parameters from the above, and a calculation unit that calculates dimensional data of an object based on the estimated values of a predetermined number of shape parameters. With such a configuration, it is possible to provide dimensional data calculated for an object with high accuracy.

第1実施形態に係る寸法データ算出装置1020の構成を示す模式図である。It is a schematic diagram which shows the structure of the dimension data calculation apparatus 1020 which concerns on 1st Embodiment. 同実施形態に係る寸法データ算出装置1020の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation of the dimension data calculation apparatus 1020 which concerns on this embodiment. 同実施形態に係る形状データの概念を示す模式図である。It is a schematic diagram which shows the concept of the shape data which concerns on the same embodiment. 同実施形態に係る製品製造システム1001の概念を示す模式図である。It is a schematic diagram which shows the concept of the product manufacturing system 1001 which concerns on the same embodiment. 同実施形態に係る製品製造システム1001の動作を説明するためのシーケンス図である。It is a sequence diagram for demonstrating the operation of the product manufacturing system 1001 which concerns on this embodiment. 同実施形態に係る端末装置1010に表示される画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen displayed on the terminal apparatus 1010 which concerns on the same embodiment. 同実施形態に係る端末装置1010に表示される画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen displayed on the terminal apparatus 1010 which concerns on the same embodiment. 第2実施形態に係る寸法データ算出装置2120の構成を示す模式図である。It is a schematic diagram which shows the structure of the dimension data calculation apparatus 2120 which concerns on 2nd Embodiment. 同実施形態に係る二次回帰で用いるデータの概念を示す模式図である。It is a schematic diagram which shows the concept of the data used in the quadratic regression which concerns on the same embodiment. 同実施形態に係る製品製造システム2001Sの概念を示す模式図である。It is a schematic diagram which shows the concept of the product manufacturing system 2001S which concerns on the same embodiment. 第3実施形態に係る寸法データ算出システム3100の模式図である。It is a schematic diagram of the dimension data calculation system 3100 which concerns on 3rd Embodiment. 図11の学習装置3025の動作を示すフローチャートである。It is a flowchart which shows the operation of the learning apparatus 3025 of FIG. 図11の寸法データ算出装置3020の動作を示すフローチャートである。It is a flowchart which shows the operation of the dimension data calculation apparatus 3020 of FIG. 形状パラメータの特性を示す概略説明図である。It is a schematic explanatory drawing which shows the characteristic of a shape parameter. 形状パラメータの特性を示す概略グラフである。It is a schematic graph which shows the characteristic of a shape parameter. 第3実施形態に係る製品製造システム3001の概念を示す模式図である。It is a schematic diagram which shows the concept of the product manufacturing system 3001 which concerns on 3rd Embodiment. 図16の製品製造システム3001の動作を示すシーケンス図である。It is a sequence diagram which shows the operation of the product manufacturing system 3001 of FIG. 図16の端末装置3010に表示される画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen displayed on the terminal apparatus 3010 of FIG. 図16の端末装置3010に表示される画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen displayed on the terminal apparatus 3010 of FIG. 第4実施形態に係る寸法データ算出システム4100の模式図である。It is a schematic diagram of the dimension data calculation system 4100 which concerns on 4th Embodiment. 図20の学習装置4125の動作を示すフローチャートである。It is a flowchart which shows the operation of the learning apparatus 4125 of FIG. 図20の寸法データ算出装置4020の動作を示すフローチャートである。It is a flowchart which shows the operation of the dimension data calculation apparatus 4020 of FIG. 第4実施形態に係る製品製造システム4001Sの概念を示す模式図である。It is a schematic diagram which shows the concept of the product manufacturing system 4001S which concerns on 4th Embodiment.

<第1実施形態>
(1−1)寸法データ算出装置の構成
図1は本実施形態に係る寸法データ算出装置1020の構成を示す模式図である。
<First Embodiment>
(1-1) Configuration of Dimension Data Calculation Device FIG. 1 is a schematic view showing the configuration of the dimension data calculation device 1020 according to the present embodiment.

寸法データ算出装置1020は任意のコンピュータにより実現することができ、記憶01部1021、入出力部1022、通信部1023、及び処理部1024を備える。なお、寸法データ算出装置1020は、LSI(Large Scale Integration),ASIC(Application Specific Integrated Circuit),FPGA(Field-Programmable Gate Array)などを用いてハードウェアとして実現されるものでもよい。 The dimensional data calculation device 1020 can be realized by an arbitrary computer, and includes a storage unit 1021, an input / output unit 1022, a communication unit 1023, and a processing unit 1024. The dimension data calculation device 1020 may be realized as hardware by using LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or the like.

記憶部1021は、各種情報を記憶するものであり、メモリ及びハードディスク等の任意の記憶装置により実現される。例えば、記憶部1021は、対象物の長さ及び重さ等に関連付けて、後述する情報処理を実行するために必要な重み係数を記憶する。なお、重み係数は、後述する属性データ・画像データ・寸法データからなる教師データから機械学習を実行することであらかじめ取得される。 The storage unit 1021 stores various types of information, and is realized by an arbitrary storage device such as a memory and a hard disk. For example, the storage unit 1021 stores a weighting coefficient necessary for executing information processing described later in relation to the length and weight of the object. The weighting coefficient is acquired in advance by executing machine learning from teacher data consisting of attribute data, image data, and dimension data described later.

入出力部1022は、キーボード、マウス、タッチパネル等により実現され、コンピュータに各種情報を入力したり、コンピュータから各種情報を出力したりするものである。
通信部1023は、任意のネットワークカード等により実現され、有線又は無線によりネットワーク上の通信機器との通信を可能にするものである。
The input / output unit 1022 is realized by a keyboard, a mouse, a touch panel, and the like, and inputs various information to the computer and outputs various information from the computer.
The communication unit 1023 is realized by an arbitrary network card or the like, and enables communication with a communication device on the network by wire or wirelessly.

処理部1024は、各種情報処理を実行するものであり、CPUやGPUといったプロセッサ及びメモリにより実現される。ここでは、コンピュータのCPU,GPU等に記憶部1021に記憶されたプログラムが読み込まれることにより、処理部1024が、取得部1024A、抽出部1024B、変換部1024C、及び算出部1024Dとして機能する。 The processing unit 1024 executes various types of information processing, and is realized by a processor such as a CPU or GPU and a memory. Here, the processing unit 1024 functions as the acquisition unit 1024A, the extraction unit 1024B, the conversion unit 1024C, and the calculation unit 1024D by reading the program stored in the storage unit 1021 into the CPU, GPU, or the like of the computer.

取得部1024Aは、対象物が撮影された画像データ及び対象物の全長データ・重量データ等を取得する。なお、ここでは、取得部1024Aは、対象物を異なる方向から撮影した複数の画像データを取得する。 The acquisition unit 1024A acquires image data obtained by photographing the object, total length data, weight data, and the like of the object. Here, the acquisition unit 1024A acquires a plurality of image data obtained by photographing the object from different directions.

抽出部1024Bは、画像データから対象物の形状を示す形状データを抽出する。具体的には、抽出部1024Bは、対象物の種類毎に準備されたセマンティックセグメンテーションのアルゴリズム(Mask R-CNN等)を用いて、画像データに含まれる対象物領域を抽出することにより、対象物の形状データを抽出する。ここでは、セマンティックセグメンテーションのアルゴリズムは、対象物の形状が特定されていない教師データを用いて構築される。 The extraction unit 1024B extracts shape data indicating the shape of the object from the image data. Specifically, the extraction unit 1024B uses a semantic segmentation algorithm (Mask R-CNN, etc.) prepared for each type of object to extract the object region included in the image data to extract the object. Extract the shape data of. Here, the semantic segmentation algorithm is constructed using teacher data in which the shape of the object is not specified.

なお、セマンティックセグメンテーションのアルゴリズムが、形状が不特定の対象物の教師データを用いて構築されている場合、必ずしも高精度に対象物の形状を抽出することができないことがある。このような場合、抽出部1024Bは、対象物領域からグラブカット(GrabCut)アルゴリズムにより対象物の形状データを抽出する。これにより、高精度に対象物の形状を抽出することが可能になる。さらに、抽出部1024Bは、グラブカットアルゴリズムにより特定された対象物の画像を、対象物の特定部分の色画像に基づいて補正するものでもよい。これにより、さらに高精度に対象物の形状データを生成することが可能となる。 When the semantic segmentation algorithm is constructed using the teacher data of an object whose shape is unspecified, it may not always be possible to extract the shape of the object with high accuracy. In such a case, the extraction unit 1024B extracts the shape data of the object from the object region by the GrabCut algorithm. This makes it possible to extract the shape of the object with high accuracy. Further, the extraction unit 1024B may correct the image of the object specified by the grab cut algorithm based on the color image of the specific portion of the object. This makes it possible to generate shape data of the object with higher accuracy.

変換部1024Cは、形状データを全長データに基づいて変換し、シルエット化する。これにより形状データが規格化される。 The conversion unit 1024C converts the shape data based on the total length data and creates a silhouette. As a result, the shape data is standardized.

算出部1024Dは、変換部1024Cにより変換された形状データを用いて、対象物の各部分の寸法データを算出する。具体的には、算出部1024Dは、変換部1024Cにより変換された形状データの次元削減を行なう。ここでいう、次元削減は、主成分分析、特にカーネル主成分分析(KernelPCA)、線形判別分析などの手法により実現される。 The calculation unit 1024D calculates the dimensional data of each part of the object by using the shape data converted by the conversion unit 1024C. Specifically, the calculation unit 1024D reduces the dimension of the shape data converted by the conversion unit 1024C. The dimension reduction referred to here is realized by a method such as principal component analysis, particularly kernel principal component analysis (KernelPCA), and linear discriminant analysis.

そして、算出部1024Dは、削減した各次元の値と対象物の部分ごとに最適化された重み係数とを用いて、対象物の各部分の寸法データを算出する。 Then, the calculation unit 1024D calculates the dimensional data of each part of the object by using the reduced value of each dimension and the weighting coefficient optimized for each part of the object.

さらに詳しくは、算出部1024Dは、1回目に削減した各次元の値と対象物の部分ごとに最適化された重み係数W1piとを線形結合して所定値Zpiを求める。なお、記号pは削減して得られる次元数であり、10以上の値である。そして、算出部1024Dは、所定値Zpiと、対象物の長さ及び重さの属性を少なくとも含む属性データとを用いて2回目の次元削減を行い、2回目の次元削減で得られた各次元の値に基づいて、対象物の各部分の寸法データを算出する。なお、重み係数W1piの個数は、対象物の寸法箇所(i個)毎に、削減された次元と同数準備される。 More specifically, the calculation unit 1024D linearly combines the value of each dimension reduced at the first time and the weighting coefficient W1pi optimized for each part of the object to obtain a predetermined value Zpi. The symbol p is the number of dimensions obtained by reduction, and is a value of 10 or more. Then, the calculation unit 1024D performs the second dimension reduction using the predetermined value Zpi and the attribute data including at least the attributes of the length and weight of the object, and each dimension obtained by the second dimension reduction. Dimensional data of each part of the object is calculated based on the value of. The number of weighting coefficients W1pi is prepared in the same number as the reduced dimension for each dimension (i) of the object.

なお、上記説明では、算出部1024Dは、線形結合を用いて所定値Zpiを求めていたが、算出部1024Dは線形結合以外の手法でこれらの値を求めるものでもよい。具体的には、算出部1024Dは、次元削減で得られた各次元の値から2次の特徴量を生成し、当該2次の特徴量と対象物の部分ごとに最適化された重み係数とを結合することで、所定値を求めるようにしてもよい。 In the above description, the calculation unit 1024D obtains a predetermined value Zpi using a linear combination, but the calculation unit 1024D may obtain these values by a method other than the linear combination. Specifically, the calculation unit 1024D generates a quadratic feature amount from the value of each dimension obtained by the dimension reduction, and sets the quadratic feature amount and the weighting coefficient optimized for each part of the object. May be obtained by combining the above.

(1−2)寸法データ算出装置の動作
図2は本実施形態に係る寸法データ算出装置1020の動作を説明するためのフローチャートである。
(1-2) Operation of Dimension Data Calculator FIG. 2 is a flowchart for explaining the operation of the dimensional data calculation device 1020 according to the present embodiment.

まず、寸法データ算出装置1020は、外部の端末装置等を介して対象物の全体を異なる方向から撮影した複数の画像データを、対象物の全長を示す全長データとともに取得する(S1001)。
次に、寸法データ算出装置1020は、各画像データから対象物の各部分の形状を示す形状データをそれぞれ抽出する(S1002)。
続いて、寸法データ算出装置1020は、全長データに基づいて各形状データを所定の大きさに変換するリスケール処理を実行する(S1003)。
First, the dimension data calculation device 1020 acquires a plurality of image data obtained by photographing the entire object from different directions via an external terminal device or the like together with the total length data indicating the total length of the object (S1001).
Next, the dimension data calculation device 1020 extracts shape data indicating the shape of each part of the object from each image data (S1002).
Subsequently, the dimension data calculation device 1020 executes a rescale process for converting each shape data into a predetermined size based on the total length data (S1003).

次に、寸法データ算出装置1020は、変換後の複数の形状データを結合して、新たな形状データ(以下、計算用の形状データともいう。)を生成する。具体的には、図3に示すようにh行w列の形状データを結合し、m×h×wのデータ列にする。なお、記号mは形状データの個数である(S1004)。 Next, the dimension data calculation device 1020 combines a plurality of converted shape data to generate new shape data (hereinafter, also referred to as shape data for calculation). Specifically, as shown in FIG. 3, the shape data of h rows and w columns are combined to form a data string of m × h × w. The symbol m is the number of shape data (S1004).

この後、寸法データ算出装置1020は、新たに生成された形状データと、対象物の各部分に関して最適化された重み係数W1piとを用いて、対象物における第i番目(i=1〜j)の各部分の寸法データを算出する(S1005〜S1008)。なお、記号jは寸法データを算出しようとする寸法箇所の総数である。 After that, the dimension data calculation device 1020 uses the newly generated shape data and the weighting coefficient W1pi optimized for each part of the object to make the i-th (i = 1 to j) in the object. The dimensional data of each part of the above is calculated (S1005 to S1008). The symbol j is the total number of dimensional locations for which dimensional data is to be calculated.

(1−3)寸法データ算出装置の特徴
(1−3−1)
以上説明したように、本実施形態に係る寸法データ算出装置1020は、取得部1024Aと、抽出部1024Bと、変換部1024Cと、算出部1024Dとを備える。取得部1024Aは、対象物が撮影された画像データ及び対象物の全長データを取得する。抽出部1024Bは、画像データから対象物の形状を示す形状データを抽出する。変換部1024Cは、形状データを全長データに基づいて変換し、シルエット化する。算出部1024Dは、変換部1024Cにより変換された形状データを用いて、対象物の各部分の寸法データを算出する。
(1-3) Features of Dimension Data Calculator (1-3-1)
As described above, the dimension data calculation device 1020 according to the present embodiment includes an acquisition unit 1024A, an extraction unit 1024B, a conversion unit 1024C, and a calculation unit 1024D. The acquisition unit 1024A acquires the image data in which the object is photographed and the total length data of the object. The extraction unit 1024B extracts shape data indicating the shape of the object from the image data. The conversion unit 1024C converts the shape data based on the total length data and creates a silhouette. The calculation unit 1024D calculates the dimensional data of each part of the object by using the shape data converted by the conversion unit 1024C.

したがって、寸法データ算出装置1020は、画像データと全長データとを用いて対象物の各部分の寸法データを算出するので、高精度な寸法データを提供することができる。また、寸法データ算出装置1020では、多数の画像データ及び全長データを一度に情報処理することが可能であるので、多数の寸法データを高精度に提供することができる。 Therefore, since the dimension data calculation device 1020 calculates the dimension data of each part of the object using the image data and the total length data, it is possible to provide highly accurate dimension data. Further, since the dimensional data calculation device 1020 can process a large number of image data and the total length data at one time, it is possible to provide a large number of dimensional data with high accuracy.

そして、このような寸法データ算出装置1020を用いることで、例えば、対象物として生物の各部分の寸法データを高精度に算出することができる。また、対象物として車や各種荷物など任意の物体の各部分の寸法データを高精度に算出することができる。
また、寸法データ算出装置を、各種製品を製造する製品製造装置に組み込むことで、対象物の形状に適合した製品を製造することが可能となる。
Then, by using such a dimensional data calculation device 1020, for example, dimensional data of each part of an organism as an object can be calculated with high accuracy. In addition, it is possible to calculate the dimensional data of each part of an arbitrary object such as a car or various luggage as an object with high accuracy.
Further, by incorporating the dimensional data calculation device into the product manufacturing device that manufactures various products, it becomes possible to manufacture a product that matches the shape of the object.

(1−3−2)
また、寸法データ算出装置1020では、取得部1024Aが、対象物を異なる方向から撮影した複数の画像データを取得する。このような構成により、寸法データの精度を高めることができる。
(1-3-2)
Further, in the dimension data calculation device 1020, the acquisition unit 1024A acquires a plurality of image data obtained by photographing the object from different directions. With such a configuration, the accuracy of the dimensional data can be improved.

(1−3−3)
また、寸法データ算出装置1020では、算出部1024Dが、変換部1024Cにより変換された形状データの次元削減を行なう。そして、算出部1024Dは、削減した各次元の値と対象物の部分ごとに最適化された重み係数W1piとを用いて、対象物の各部分の寸法データを算出する。このような構成により、計算負荷を抑えつつ、寸法データの精度を高めることができる。
(1-3-3)
Further, in the dimension data calculation device 1020, the calculation unit 1024D reduces the dimension of the shape data converted by the conversion unit 1024C. Then, the calculation unit 1024D calculates the dimensional data of each part of the object by using the reduced value of each dimension and the weighting coefficient W1pi optimized for each part of the object. With such a configuration, the accuracy of the dimensional data can be improved while suppressing the calculation load.

詳しくは、算出部1024Dは、削減した各次元の値と、対象物の第i番目の部分に最適化された重み係数W1piとを線形結合して所定値Ziを求める。また、算出部1024Dは、前記所定値Ziと、対象物の長さ及び重さの属性を少なくとも含む属性データとを用いて2回目の次元削減を実行して、対象物の第i番目の寸法データを算出する。このような構成により、計算負荷を抑えつつ、寸法データの精度をさらに高めることができる。なお、上記説明において、算出部1024Dは、線形結合に代えて、次元削減で得られた各次元の値から2次の特徴量を生成し、当該2次の特徴量と対象物の部分ごとに最適化された重み係数とを結合することで、所定値を求めるようにしてもよい。 Specifically, the calculation unit 1024D linearly combines the reduced values of each dimension with the weighting coefficient W1pi optimized for the i-th part of the object to obtain a predetermined value Zi. Further, the calculation unit 1024D executes the second dimension reduction using the predetermined value Zi and the attribute data including at least the attributes of the length and weight of the object, and executes the second dimension reduction to the i-th dimension of the object. Calculate the data. With such a configuration, the accuracy of the dimensional data can be further improved while suppressing the calculation load. In the above description, the calculation unit 1024D generates a quadratic feature amount from the value of each dimension obtained by the dimension reduction instead of the linear combination, and for each of the quadratic feature amount and the object part. A predetermined value may be obtained by combining with the optimized weighting coefficient.

(1−3−4)
また、寸法データ算出装置1020では、抽出部1024Bが、対象物の種類毎に準備された教師データを用いて構築されたセマンティックセグメンテーションのアルゴリズムを用いて、画像データに含まれる対象物領域を抽出することにより、対象物の形状データを抽出する。このような構成により、寸法データの精度を高めることができる。
(1-3-4)
Further, in the dimension data calculation device 1020, the extraction unit 1024B extracts the object area included in the image data by using the semantic segmentation algorithm constructed by using the teacher data prepared for each type of the object. By doing so, the shape data of the object is extracted. With such a configuration, the accuracy of the dimensional data can be improved.

なお、セマンティックセグメンテーションのアルゴリズムは一般的に公開されているものもあるが、一般的に公開されているものは、通常は対象物の形状が特定されていない教師データを用いて構築されている。そのため、目的によっては、画像データに含まれる対象物領域を抽出する精度が必ずしも十分でないことがある。 Some algorithms for semantic segmentation are open to the public, but those that are open to the public are usually constructed using teacher data in which the shape of the object is not specified. Therefore, depending on the purpose, the accuracy of extracting the object region included in the image data may not always be sufficient.

そこで、このような場合には、抽出部1024Bは、対象物領域からグラブカットアルゴリズムにより対象物の形状データを抽出する。このような構成により、寸法データの精度をさらに高めることができる。 Therefore, in such a case, the extraction unit 1024B extracts the shape data of the object from the object region by the grab cut algorithm. With such a configuration, the accuracy of the dimensional data can be further improved.

さらに、抽出部1024Bは、グラブカットアルゴリズムにより抽出された対象物の画像を、画像データにおける特定部分の色画像に基づいて補正して、新たな形状データを生成するものでもよい。このような構成により、寸法データの精度をさらに高めることができる。例えば、対象物が人である場合、特定部分として手及び背中を設定し、これらの特定部分の色画像に基づいて補正することで、対象物である人の形状データを高精度に得ることができる。 Further, the extraction unit 1024B may generate new shape data by correcting the image of the object extracted by the grab cut algorithm based on the color image of the specific portion in the image data. With such a configuration, the accuracy of the dimensional data can be further improved. For example, when the object is a person, the shape data of the person who is the object can be obtained with high accuracy by setting the hands and back as specific parts and correcting them based on the color image of these specific parts. it can.

(1−4)変形例
(1−4−1)
上記説明においては、取得部1024Aが、対象物を異なる方向から撮影した複数の画像データを取得するとしたが、必ずしも画像データが複数必要なわけではない。対象物の画像データが一枚であっても各部分の寸法データを算出することは可能である。
(1-4) Modification example (1-4-1)
In the above description, it is assumed that the acquisition unit 1024A acquires a plurality of image data obtained by photographing the object from different directions, but a plurality of image data are not always required. It is possible to calculate the dimensional data of each part even if the image data of the object is one.

(1−4−2)
上記説明においては、算出部1024Dが、次元削減を2回実行しているが、必ずしもこのような処理が必要なわけではない。算出部1024Dは、次元削減を1回実行することで得られた各次元の値から、対象物の各部分の寸法データを算出するものでもよい。また、目的によっては、寸法データ算出装置1020は、形状データを次元削減せずに寸法データを算出するものでもよい。
(1-4-2)
In the above description, the calculation unit 1024D executes the dimension reduction twice, but such processing is not always necessary. The calculation unit 1024D may calculate the dimensional data of each part of the object from the value of each dimension obtained by executing the dimension reduction once. Further, depending on the purpose, the dimension data calculation device 1020 may calculate the dimension data without reducing the dimension of the shape data.

(1−4−3)
上記説明においては、抽出部1024Bが、対象物の形状が特定されていない教師データを用いて構築されたセマンティックセグメンテーションのアルゴリズムを用いて、画像データに含まれる対象物領域を抽出するとしたが、必ずしもこのような教師データを利用しなければならないものではない。例えば、対象物の形状が特定された教師データを用いて構築されたセマンティックセグメンテーションのアルゴリズムを用いてもよい。対象物の形状が特定された教師データを用いることで、目的に応じて、寸法データの計算精度を高めるとともに、計算負荷を抑制することができる。
(1-4-3)
In the above description, it is assumed that the extraction unit 1024B extracts the object region included in the image data by using the semantic segmentation algorithm constructed by using the teacher data in which the shape of the object is not specified. It is not necessary to use such teacher data. For example, a semantic segmentation algorithm constructed using teacher data in which the shape of the object is specified may be used. By using the teacher data in which the shape of the object is specified, it is possible to improve the calculation accuracy of the dimensional data and suppress the calculation load according to the purpose.

(1−5)製品製造システムへの適用
以下、上述した寸法データ算出装置1020を製品製造システム1001に適用する例について説明する。
(1−5−1)製品製造システムの構成
図4は本実施形態に係る製品製造システム1001の概念を示す模式図である。
製品製造システム1001は、ユーザ1005が保有する端末装置1010と通信可能な寸法データ算出装置1020と、製品製造装置1030とを備え、所望の製品1006を製造するためのシステムである。図4では、一例として、対象物1007が人であり、製品1006が椅子であるときの概念を示している。ただし、本実施形態に係る製品製造システムの対象物1007及び製品1006はこれらに限定されるものではない。
(1-5) Application to Product Manufacturing System Hereinafter, an example in which the above-mentioned dimension data calculation device 1020 is applied to the product manufacturing system 1001 will be described.
(1-5-1) Configuration of Product Manufacturing System FIG. 4 is a schematic diagram showing the concept of the product manufacturing system 1001 according to the present embodiment.
The product manufacturing system 1001 includes a dimension data calculation device 1020 capable of communicating with the terminal device 1010 owned by the user 1005, and a product manufacturing device 1030, and is a system for manufacturing a desired product 1006. In FIG. 4, as an example, the concept when the object 1007 is a person and the product 1006 is a chair is shown. However, the object 1007 and the product 1006 of the product manufacturing system according to the present embodiment are not limited thereto.

端末装置1010は、いわゆるスマートデバイスにより実現することができる。ここでは、スマートデバイスに、ユーザ用プログラムがインストールされることで端末装置1010が各種機能を発揮する。具体的には、端末装置1010は、ユーザ1005により撮像される画像データを生成する。また、端末装置1010は、対象物1007の属性を示す属性データの入力を受け付ける。「属性」としては、対象物1007の全長・重量・生成からの経過時間(年齢を含む)などが挙げられる。また、端末装置1010は、通信機能を有しており、寸法データ算出装置1020及び製品製造装置1030と各種情報の送受信を実行する。 The terminal device 1010 can be realized by a so-called smart device. Here, the terminal device 1010 exerts various functions by installing a user program on the smart device. Specifically, the terminal device 1010 generates image data captured by the user 1005. Further, the terminal device 1010 accepts the input of the attribute data indicating the attribute of the object 1007. Examples of the "attribute" include the total length, weight, and elapsed time (including age) of the object 1007. Further, the terminal device 1010 has a communication function, and executes transmission / reception of various information with the dimension data calculation device 1020 and the product manufacturing device 1030.

寸法データ算出装置1020は任意のコンピュータにより実現することができる。ここでは、寸法データ算出装置1020の記憶部1021は、端末装置1010のユーザ1005を識別する識別情報に関連付けて、端末装置1010から送信される情報を記憶する。また、記憶部1021は、後述する情報処理を実行するために必要なパラメータ等を記憶する。例えば、記憶部1021は、対象物1007の属性の項目等に関連付けて、後述する情報処理を実行するために必要な重み係数W1piを記憶する。 The dimensional data calculation device 1020 can be realized by any computer. Here, the storage unit 1021 of the dimension data calculation device 1020 stores the information transmitted from the terminal device 1010 in association with the identification information that identifies the user 1005 of the terminal device 1010. In addition, the storage unit 1021 stores parameters and the like necessary for executing information processing described later. For example, the storage unit 1021 stores the weighting coefficient W1pi necessary for executing the information processing described later in association with the attribute items of the object 1007 and the like.

また、寸法データ算出装置1020の処理部1024は、上述したように、取得部1024A、抽出部1024B、変換部1024C、及び算出部1024Dとして機能する。ここでは、取得部1024Aは、ユーザ1005により撮影された画像データ及び対象物1007の属性データを取得する。また、抽出部1024Bは、画像データから対象物1007の形状を示す形状データを抽出する。例えば、対象物の種類として「人」が予め設定されている場合には、人を識別するための教師データを用いてセマンティックセグメンテーションのアルゴリズムが構築されている。また、抽出部1024Bは、グラブカットアルゴリズムにより特定された対象物1007の画像を、対象物1007の特定部分の色画像に基づいて補正し、さらに高精度に対象物1007の形状データを生成する。また、変換部1024Cは、形状データを全長データに基づいて変換し、シルエット化する。算出部1024Dは、変換部1024Cにより変換された形状データを用いて、ユーザ1005の各部分の寸法データを算出する。ここでは、算出部1024Dは、削減した各次元の値と対象物1007の部分ごとに最適化された重み係数W1piとを線形結合等して所定値Z1iを求める。そして、算出部1024Dは、所定値Z1iと、対象物1007の属性データとを用いて次元削減し、削減した各次元の値に基づいて、対象物1007の各部分の寸法データを算出する。 Further, as described above, the processing unit 1024 of the dimension data calculation device 1020 functions as an acquisition unit 1024A, an extraction unit 1024B, a conversion unit 1024C, and a calculation unit 1024D. Here, the acquisition unit 1024A acquires the image data taken by the user 1005 and the attribute data of the object 1007. Further, the extraction unit 1024B extracts shape data indicating the shape of the object 1007 from the image data. For example, when "person" is preset as the type of object, a semantic segmentation algorithm is constructed using teacher data for identifying a person. Further, the extraction unit 1024B corrects the image of the object 1007 specified by the grab cut algorithm based on the color image of the specific portion of the object 1007, and generates the shape data of the object 1007 with higher accuracy. Further, the conversion unit 1024C converts the shape data based on the total length data and creates a silhouette. The calculation unit 1024D calculates the dimensional data of each part of the user 1005 by using the shape data converted by the conversion unit 1024C. Here, the calculation unit 1024D obtains a predetermined value Z1i by linearly combining the reduced values of each dimension and the weighting coefficient W1pi optimized for each part of the object 1007. Then, the calculation unit 1024D reduces the dimension using the predetermined value Z1i and the attribute data of the object 1007, and calculates the dimension data of each part of the object 1007 based on the reduced value of each dimension.

製品製造装置1030は、寸法データ算出装置1020を用いて算出された寸法データを用いて、対象物1007の形状に関連する所望の製品を製造する製造装置である。なお、製品製造装置1030は、自動で製品を製造・加工できる任意の装置を採用することができ、例えば3次元プリンタなどにより実現することができる。 The product manufacturing apparatus 1030 is a manufacturing apparatus that manufactures a desired product related to the shape of the object 1007 by using the dimensional data calculated by using the dimensional data calculating device 1020. The product manufacturing device 1030 can be any device capable of automatically manufacturing and processing a product, and can be realized by, for example, a three-dimensional printer.

(1−5−2)製品製造システムの動作
図5は本実施形態に係る製品製造システム1001の動作を説明するためのシーケンス図である。また、図6,7は端末装置1010の画面遷移を示す模式図である。
まず、端末装置1010を介して対象物1007の全体が異なる方向から写るように複数回撮像されて、対象物1007が撮像された複数の画像データが生成される(T1001)。ここでは、図6,7にそれぞれ示すような、正面及び側面の写真が複数枚撮影される。
(1-5-2) Operation of Product Manufacturing System FIG. 5 is a sequence diagram for explaining the operation of the product manufacturing system 1001 according to the present embodiment. Further, FIGS. 6 and 7 are schematic views showing screen transitions of the terminal device 1010.
First, the entire object 1007 is imaged a plurality of times via the terminal device 1010 so as to be photographed from different directions, and a plurality of image data in which the object 1007 is imaged is generated (T1001). Here, a plurality of front and side photographs as shown in FIGS. 6 and 7 are taken.

次に、ユーザ1005により端末装置1010に、対象物1007の属性を示す属性データが入力される(T1002)。ここでは、属性データとして、対象物1007の全長データ・重量データ・経時データ(年齢等を含む)等が入力される。
そして、これらの複数の画像データ及び属性データが端末装置1010から寸法データ算出装置1020に送信される。
Next, the user 1005 inputs attribute data indicating the attributes of the object 1007 to the terminal device 1010 (T1002). Here, as the attribute data, the total length data, the weight data, the time-lapse data (including age, etc.) of the object 1007 and the like are input.
Then, these plurality of image data and attribute data are transmitted from the terminal device 1010 to the dimension data calculation device 1020.

寸法データ算出装置1020では、端末装置1010から複数の画像データ及び属性データを受信すると、これらのデータを用いて、対象物1007の各部分の寸法データを算出する(T1003)。なお、端末装置1010には、設定に応じて、寸法データが画面に表示される。
そして、製品製造装置1030が、寸法データ算出装置1020により算出された寸法データに基づいて所望の製品1006を製造する(T1004)。
When the dimensional data calculation device 1020 receives a plurality of image data and attribute data from the terminal device 1010, the dimensional data calculation device 1020 calculates the dimensional data of each part of the object 1007 using these data (T1003). The terminal device 1010 displays dimensional data on the screen according to the setting.
Then, the product manufacturing apparatus 1030 manufactures a desired product 1006 based on the dimensional data calculated by the dimensional data calculating apparatus 1020 (T1004).

(1−5−3)製品製造システムの特徴
以上説明したように、本実施形態に係る製品製造システム1001は、ユーザ1005が保有する端末装置1010と通信可能な寸法データ算出装置1020と、製品製造装置1030とを備える。端末装置1010(撮影装置)は、対象物1007の画像を複数枚撮影する。寸法データ算出装置1020は、取得部1024Aと、抽出部1024Bと、変換部1024Cと、算出部1024Dと、を備える。取得部1024Aは、端末装置1010から対象物1007の画像データを当該対象物1007の全長データとともに取得する。抽出部1024Bは、画像データから対象物1007の形状を示す形状データを抽出する。変換部1024Cは、形状データを全長データに基づいて変換し、シルエット化する。算出部1024Dは、変換部1024Cにより変換された形状データを用いて、対象物1007の各部分の寸法データを算出する。製品製造装置1030は、算出部1024Dにより算出された寸法データを用いて製品1006を製造する。
このような構成により、寸法データ算出装置1020が高精度に対象物1007の各部分を高精度に算出するので、対象物1007の形状に関連する所望の製品を提供できる。
(1-5-3) Features of Product Manufacturing System As described above, the product manufacturing system 1001 according to the present embodiment includes a dimension data calculation device 1020 capable of communicating with the terminal device 1010 owned by the user 1005 and product manufacturing. A device 1030 is provided. The terminal device 1010 (photographing device) captures a plurality of images of the object 1007. The dimension data calculation device 1020 includes an acquisition unit 1024A, an extraction unit 1024B, a conversion unit 1024C, and a calculation unit 1024D. The acquisition unit 1024A acquires the image data of the object 1007 from the terminal device 1010 together with the total length data of the object 1007. The extraction unit 1024B extracts shape data indicating the shape of the object 1007 from the image data. The conversion unit 1024C converts the shape data based on the total length data and creates a silhouette. The calculation unit 1024D calculates the dimensional data of each part of the object 1007 by using the shape data converted by the conversion unit 1024C. The product manufacturing apparatus 1030 manufactures the product 1006 using the dimensional data calculated by the calculation unit 1024D.
With such a configuration, since the dimension data calculation device 1020 calculates each part of the object 1007 with high accuracy, it is possible to provide a desired product related to the shape of the object 1007.

例えば、製品製造システム1001により、心臓などの各種臓器の形状の測定から、臓器の模型を製造することができる。
また、例えば、人のウェスト形状の測定から各種ヘルスケア製品等を製造することができる。
また、例えば、人の形状から当該人のフィギュア製品を製造することができる。
また、例えば、人の形状から当該人に適合する椅子などを製造することができる。
また、例えば、車の形状から車のおもちゃを製造することができる。
また、例えば、任意の風景画からジオラマなどを製造することができる。
For example, the product manufacturing system 1001 can manufacture a model of an organ by measuring the shape of various organs such as the heart.
Further, for example, various healthcare products can be manufactured by measuring the waist shape of a person.
Further, for example, a figure product of the person can be manufactured from the shape of the person.
Further, for example, a chair or the like suitable for the person can be manufactured from the shape of the person.
Also, for example, a car toy can be manufactured from the shape of a car.
Further, for example, a diorama or the like can be manufactured from an arbitrary landscape painting.

なお、上記説明においては、寸法データ算出装置1020と製品製造装置1030とが別部材の装置として説明しているが、これらは一体として構成されるものでもよい。 In the above description, the dimension data calculation device 1020 and the product manufacturing device 1030 are described as separate members, but these may be configured as one.

<第2実施形態>
以下、既に説明した構成及び機能については略同一符号を付して説明を省略する。
(2−1)寸法データ算出装置の構成
図8は本実施形態に係る寸法データ算出装置2120の構成を示す模式図である。
寸法データ算出装置2120は任意のコンピュータにより実現することができ、記憶部2121、入出力部2122、通信部2123、及び処理部2124を備える。なお、寸法データ算出装置2120は、LSI(Large Scale Integration),ASIC(Application Specific Integrated Circuit),FPGA(Field-Programmable Gate Array)などを用いてハードウェアとして実現されるものでもよい。
<Second Embodiment>
Hereinafter, the configurations and functions already described will be designated by substantially the same reference numerals and description thereof will be omitted.
(2-1) Configuration of Dimension Data Calculation Device FIG. 8 is a schematic view showing the configuration of the dimensional data calculation device 2120 according to the present embodiment.
The dimensional data calculation device 2120 can be realized by any computer, and includes a storage unit 2121, an input / output unit 2122, a communication unit 2123, and a processing unit 2124. The dimension data calculation device 2120 may be realized as hardware by using LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or the like.

記憶部2121は、各種情報を記憶するものであり、メモリ及びハードディスク等の任意の記憶装置により実現される。例えば、記憶部2121は、対象物の長さ及び重さ等に関連付けて、後述する情報処理を実行するために必要な重み係数Wriを記憶する。なお、重み係数は、後述する属性データ・寸法データからなる教師データから機械学習を実行することであらかじめ取得される。
入出力部2122は、前述の入出力部1022と同様の構成及び機能を有するものである。
通信部2123は、前述の通信部1023と同様の構成及び機能を有するものである。
The storage unit 2121 stores various types of information, and is realized by an arbitrary storage device such as a memory and a hard disk. For example, the storage unit 2121 stores the weighting coefficient Wri required for executing the information processing described later in relation to the length and weight of the object. The weighting coefficient is acquired in advance by executing machine learning from teacher data consisting of attribute data and dimension data described later.
The input / output unit 2122 has the same configuration and function as the above-mentioned input / output unit 1022.
The communication unit 2123 has the same configuration and function as the communication unit 1023 described above.

処理部2124は、各種情報処理を実行するものであり、CPUやGPUといったプロセッサ及びメモリにより実現される。ここでは、コンピュータのCPU,GPU等に記憶部2121に記憶されたプログラムが読み込まれることにより、処理部2124が、取得部2124A、及び算出部2124Dとして機能する。 The processing unit 2124 executes various types of information processing, and is realized by a processor such as a CPU or GPU and a memory. Here, the processing unit 2124 functions as the acquisition unit 2124A and the calculation unit 2124D by reading the program stored in the storage unit 2121 into the CPU, GPU, or the like of the computer.

取得部2124Aは、対象物の全長データと重量データと経時データ(年齢等を含む)とのうちの少なくともいずれかを含む属性データDzr(rは属性データの要素数)を取得する。 The acquisition unit 2124A acquires the attribute data Dzr (r is the number of elements of the attribute data) including at least one of the total length data, the weight data, and the time-dependent data (including age) of the object.

算出部2124Dは、取得部2124Aにより取得された属性データを用いて、対象物の各部分の寸法データを算出する。具体的には、算出部2124Dは、属性データを、機械学習された重み係数Wsiを用いて二次回帰することにより、対象物の各部分の寸法データを算出する。重み係数は、対象物の部分ごとに最適化されており、対象物における第i番目の部分の重み係数をWsiと表記する。なお、i=1〜jであり、jは寸法データを算出しようとする寸法箇所の総数である。また、記号sは属性データから得られる演算に用いられる要素の数である。 The calculation unit 2124D calculates the dimensional data of each part of the object by using the attribute data acquired by the acquisition unit 2124A. Specifically, the calculation unit 2124D calculates the dimensional data of each part of the object by quadratic regression of the attribute data using the machine-learned weighting coefficient Wsi. The weighting coefficient is optimized for each part of the object, and the weighting coefficient of the i-th part of the object is expressed as Wsi. In addition, i = 1 to j, and j is the total number of dimensional points for which dimensional data is to be calculated. Further, the symbol s is the number of elements used in the calculation obtained from the attribute data.

詳しくは、算出部2124Dは、図9に示すように、属性データDzr(r=3)の各要素x1,x2,x3を2乗した値(図9における1行目の値であり、二次項ともいう。)、各要素を掛け合わせた値(図9における2行目の値であり、相互作用項ともいう。)、各要素自体の値(図9における3行目の値であり、一次項ともいう)を用いて、寸法データを算出する。なお、図9に示す例では、3つの属性データの要素x1,x2,x3から得られる値が9つあり、s=9であるので、重み係数Wsiはi×9個の要素を有することになる。
(2−2)寸法データ算出装置の特徴
Specifically, as shown in FIG. 9, the calculation unit 2124D squares each element x1, x2, x3 of the attribute data Dzr (r = 3) (the value in the first row in FIG. 9, and is a quadratic term. (Also referred to as), the value obtained by multiplying each element (the value in the second line in FIG. 9, also referred to as the interaction term), the value of each element itself (the value in the third line in FIG. 9, which is primary). Dimensional data is calculated using (also called term). In the example shown in FIG. 9, there are nine values obtained from the elements x1, x2, x3 of the three attribute data, and s = 9, so that the weighting coefficient Wsi has i × 9 elements. Become.
(2-2) Features of dimensional data calculation device

以上説明したように、本実施形態に係る寸法データ算出装置2120は、取得部2124Aと、算出部2124Dとを備える。取得部2124Aは、対象物の全長データと重量データと経時データとのうちの少なくともいずれかを含む属性データを取得する。算出部2124Dは、属性データを用いて、対象物の各部分の寸法データを算出する。 As described above, the dimension data calculation device 2120 according to the present embodiment includes an acquisition unit 2124A and a calculation unit 2124D. The acquisition unit 2124A acquires attribute data including at least one of the total length data, the weight data, and the time-lapse data of the object. The calculation unit 2124D calculates the dimensional data of each part of the object by using the attribute data.

したがって、寸法データ算出装置2120は、上記属性データを用いて対象物の各部分の寸法データを算出するので、高精度な寸法データを提供することができる。具体的には、算出部2124Dが、属性データを機械学習された係数を用いて二次回帰することにより、対象物の各部分の寸法データを高精度に算出する。
また、寸法データ算出装置2020では、多数のデータを一度に情報処理することが可能であるので、多数の寸法データを高速に提供することができる。
Therefore, since the dimensional data calculation device 2120 calculates the dimensional data of each part of the object using the attribute data, it is possible to provide highly accurate dimensional data. Specifically, the calculation unit 2124D calculates the dimensional data of each part of the object with high accuracy by performing a quadratic regression of the attribute data using machine-learned coefficients.
Further, since the dimensional data calculation device 2020 can process a large amount of data at once, it is possible to provide a large number of dimensional data at high speed.

また、属性データとして、全長データと重量データと経時データとのうちの少なくともいずれかを含んでいる場合、生物の各部分の寸法データを高精度に算出することができる。
また、寸法データ算出装置2120を、各種製品を製造する製品製造装置に組み込むことで、対象物の形状に適合した製品を製造することが可能となる。
Further, when at least one of the total length data, the weight data, and the time-dependent data is included as the attribute data, the dimensional data of each part of the organism can be calculated with high accuracy.
Further, by incorporating the dimension data calculation device 2120 into a product manufacturing device that manufactures various products, it is possible to manufacture a product that matches the shape of the object.

なお、上記説明においては、算出部2124Dが、属性データを二次回帰することにより、対象物の各部分の寸法データを算出するとしたが、算出部2124Dの演算はこれに限定されるものではない。算出部2124Dは、属性データを線形結合して寸法データを求めるものでもよい。 In the above description, the calculation unit 2124D calculates the dimensional data of each part of the object by secondary regression of the attribute data, but the calculation of the calculation unit 2124D is not limited to this. .. The calculation unit 2124D may obtain the dimension data by linearly combining the attribute data.

(2−3)製品製造システムへの適用
図10は本実施形態に係る製品製造システム2001Sの概念を示す模式図である。
本実施形態に係る寸法データ算出装置2120も、第1実施形態に係る寸法データ算出装置1020と同様に、製品製造システム2001Sに適用することが可能である。
本実施形態に係る端末装置2010Sは、対象物2007の属性を示す属性データの入力を受け付けるものであればよい。「属性」としては、対象物1007の全長・重量・生成からの経過時間(年齢を含む)などが挙げられる。
(2-3) Application to Product Manufacturing System FIG. 10 is a schematic diagram showing the concept of the product manufacturing system 2001S according to the present embodiment.
The dimensional data calculation device 2120 according to the present embodiment can also be applied to the product manufacturing system 2001S in the same manner as the dimensional data calculation device 1020 according to the first embodiment.
The terminal device 2010S according to the present embodiment may be any as long as it accepts the input of attribute data indicating the attributes of the object 2007. Examples of the "attribute" include the total length, weight, and elapsed time (including age) of the object 1007.

また、上述したように、寸法データ算出装置2120の処理部2124は、取得部2124A及び算出部2124Dとして機能する。算出部2124Dは、取得部2124Aにより取得された属性データを用いて、対象物2007の各部分の寸法データを算出する。具体的には、算出部2124Dは、属性データを機械学習された重み係数Wsiを用いて二次回帰することにより、対象物の各部分の寸法データを算出する。 Further, as described above, the processing unit 2124 of the dimension data calculation device 2120 functions as the acquisition unit 2124A and the calculation unit 2124D. The calculation unit 2124D calculates the dimensional data of each part of the object 2007 by using the attribute data acquired by the acquisition unit 2124A. Specifically, the calculation unit 2124D calculates the dimensional data of each part of the object by quadratic regression of the attribute data using the machine-learned weighting coefficient Wsi.

製品製造システム2001Sでは、寸法データ算出装置2120が高精度に対象物2007の各部分を高精度に算出するので、対象物2007の形状に関連する所望の製品を提供できる。その他、第2実施形態に係る製品製造システム2001Sは、第1実施形態の製品製造システム1001と同様の効果を発揮することができる。 In the product manufacturing system 2001S, since the dimensional data calculation device 2120 calculates each part of the object 2007 with high accuracy, it is possible to provide a desired product related to the shape of the object 2007. In addition, the product manufacturing system 2001S according to the second embodiment can exhibit the same effect as the product manufacturing system 1001 of the first embodiment.

<第3実施形態> <Third Embodiment>

以下に、本発明の情報処理装置、情報処理方法、製品製造装置、及び寸法データ算出装置の実施形態に係る寸法データ算出システムを添付図面とともに説明する。以下の実施形態の説明において、情報処理装置及び寸法データ算出装置は、寸法データ算出システムの一部として実装される。 Hereinafter, the information processing apparatus, the information processing method, the product manufacturing apparatus, and the dimension data calculation system according to the embodiment of the dimension data calculation apparatus of the present invention will be described together with the attached drawings. In the description of the following embodiments, the information processing device and the dimensional data calculation device are implemented as a part of the dimensional data calculation system.

添付図面において、同一又は類似の要素には同一又は類似の参照符号が付され、各実施形態の説明において同一又は類似の要素に関する重複する説明は省略することがある。また、各実施形態で示される特徴は、互いに矛盾しない限り他の実施形態にも適用可能である。更に、図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。 In the accompanying drawings, the same or similar elements are designated by the same or similar reference numerals, and duplicate description of the same or similar elements may be omitted in the description of each embodiment. In addition, the features shown in each embodiment can be applied to other embodiments as long as they do not contradict each other. Furthermore, the drawings are schematic and do not necessarily match the actual dimensions, ratios, etc. Even between drawings, there may be parts where the relationship and ratio of dimensions differ from each other.

なお、以下の説明において、行列やベクトルなどを用いて複数の要素をまとめて表記する場合は大文字で表し、行列の個々の要素を表記する場合は小文字で表すことがある。例えば、形状パラメータの集合を示す場合等は行列Λと表記し、行列Λの要素を表す場合は、要素λと表記する場合がある。 In the following description, when a plurality of elements are collectively expressed using a matrix or a vector, they may be expressed in uppercase letters, and when individual elements of the matrix are expressed, they may be expressed in lowercase letters. For example, when indicating a set of shape parameters, it may be expressed as a matrix Λ, and when expressing an element of the matrix Λ, it may be expressed as an element λ.

(3−1)寸法データ算出システムの構成
図11は本実施形態に係る寸法データ算出システム3100の構成を示す模式図である。寸法データ算出システム3100は、寸法データ算出装置3020及び学習装置3025を備える。
(3-1) Configuration of Dimension Data Calculation System FIG. 11 is a schematic view showing the configuration of the dimensional data calculation system 3100 according to the present embodiment. The dimensional data calculation system 3100 includes a dimensional data calculation device 3020 and a learning device 3025.

寸法データ算出装置3020及び学習装置3025は、それぞれ、任意のコンピュータにより実現することができる。寸法データ算出装置3020は、記憶部3021、入出力部3022、通信部3023、及び処理部3024を備える。また、学習装置3025は、記憶部3026及び処理部3027を備える。なお、寸法データ算出装置3020及び学習装置3025は、LSI(Large Scale Integration),ASIC(Application Specific Integrated Circuit),FPGA(Field-Programmable Gate Array)等を用いてハードウェアとして実現されてもよい。 The dimensional data calculation device 3020 and the learning device 3025 can be realized by any computer. The dimensional data calculation device 3020 includes a storage unit 3021, an input / output unit 3022, a communication unit 3023, and a processing unit 3024. Further, the learning device 3025 includes a storage unit 3026 and a processing unit 3027. The dimension data calculation device 3020 and the learning device 3025 may be realized as hardware by using LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or the like.

記憶部3021,3026は、何れも各種情報を記憶するものであり、メモリ及びハードディスク等の任意の記憶装置により実現される。例えば、記憶部3021は、処理部3024において寸法データ算出に関する情報処理を実行するために、対象物エンジン3021Aを含む各種データ、プログラム、情報等を格納する。また、記憶部3026は、対象物エンジン3021Aを生成するために、学習段階で利用される訓練データを格納する。 The storage units 3021, 3026 all store various types of information, and are realized by any storage device such as a memory and a hard disk. For example, the storage unit 3021 stores various data, programs, information, and the like including the object engine 3021A in order to execute information processing related to dimensional data calculation in the processing unit 3024. In addition, the storage unit 3026 stores training data used in the learning stage in order to generate the object engine 3021A.

入出力部3022は、キーボード、マウス、タッチパネル等により実現され、コンピュータに各種情報を入力したり、コンピュータから各種情報を出力したりする。
通信部3023は、任意のネットワークカード等のネットワークインタフェースにより実現され、有線又は無線によりネットワーク上の通信機器との通信を可能にする。
The input / output unit 3022 is realized by a keyboard, a mouse, a touch panel, and the like, and inputs various information to the computer and outputs various information from the computer.
The communication unit 3023 is realized by a network interface such as an arbitrary network card, and enables communication with a communication device on the network by wire or wirelessly.

処理部3024,3027は、何れも各種情報処理を実行するために、CPU(Central Processing Unit)及び/又はGPU(Graphical Processing Unit)といったプロセッサ、並びにメモリにより実現される。処理部3024は、コンピュータのCPU,GPU等に、記憶部3021に記憶されたプログラムが読み込まれることにより、取得部3024A、抽出部3024B、変換部3024C、推定部3024D、及び算出部3024Eとして機能する。同様に、処理部3027は、コンピュータのCPU,GPU等に、記憶部3026に記憶されたプログラムが読み込まれることにより、前処理部3027A及び学習部3027Bとして機能する。 The processing units 3024 and 3027 are all realized by a processor such as a CPU (Central Processing Unit) and / or a GPU (Graphical Processing Unit) and a memory in order to execute various information processing. The processing unit 3024 functions as an acquisition unit 3024A, an extraction unit 3024B, a conversion unit 3024C, an estimation unit 3024D, and a calculation unit 3024E by reading the program stored in the storage unit 3021 into the CPU, GPU, or the like of the computer. .. Similarly, the processing unit 3027 functions as the preprocessing unit 3027A and the learning unit 3027B by reading the program stored in the storage unit 3026 into the CPU, GPU, or the like of the computer.

寸法データ算出装置3020の処理部3024において、取得部3024Aは、対象物が撮影された画像データ、並びに対象物の全長データ及び重量データ等の属性データを取得する。取得部3024Aは、例えば、撮像装置により、対象物を複数の異なる方向から撮影した複数の画像データを取得する。 In the processing unit 3024 of the dimension data calculation device 3020, the acquisition unit 3024A acquires the image data in which the object is photographed and the attribute data such as the total length data and the weight data of the object. The acquisition unit 3024A acquires, for example, a plurality of image data obtained by photographing an object from a plurality of different directions by an imaging device.

抽出部3024Bは、画像データから対象物の形状を示す形状データを抽出する。具体的には、抽出部3024Bは、対象物の種類毎に準備されたセマンティックセグメンテーションのアルゴリズム(Mask R-CNN等)を用いて、画像データに含まれる対象物領域を抽出することにより、対象物の形状データを抽出する。セマンティックセグメンテーションのアルゴリズムは、対象物の形状が特定されていない訓練データを用いて構築できる。 The extraction unit 3024B extracts shape data indicating the shape of the object from the image data. Specifically, the extraction unit 3024B uses a semantic segmentation algorithm (Mask R-CNN, etc.) prepared for each type of object to extract the object region included in the image data to extract the object. Extract the shape data of. Semantic segmentation algorithms can be constructed using training data in which the shape of the object is not specified.

なお、セマンティックセグメンテーションのアルゴリズムが、形状が不特定の対象物の訓練データを用いて構築されている場合、必ずしも高精度に対象物の形状を抽出することができないことがある。このような場合、抽出部3024Bは、対象物領域からグラブカット(Grab Cut)アルゴリズムにより対象物の形状データを抽出する。これにより、高精度に対象物の形状を抽出することが可能になる。 When the semantic segmentation algorithm is constructed using training data of an object whose shape is unspecified, it may not always be possible to extract the shape of the object with high accuracy. In such a case, the extraction unit 3024B extracts the shape data of the object from the object region by the Grab Cut algorithm. This makes it possible to extract the shape of the object with high accuracy.

また、抽出部3024Bは、グラブカットアルゴリズムにより特定された対象物の画像を、対象物の特定部分の色画像に基づいて補正することにより、対象物と対象物以外の背景画像とを分離してもよい。これにより、更に高精度に対象物の形状データを生成することが可能となる。 Further, the extraction unit 3024B separates the object and the background image other than the object by correcting the image of the object specified by the grab cut algorithm based on the color image of the specific portion of the object. May be good. This makes it possible to generate shape data of the object with higher accuracy.

変換部3024Cは、形状データを全長データに基づいてシルエット化する。つまり、対象物の形状データを変換して、対象物のシルエット画像を生成する。これにより、形状データが規格化される。変換部3024Cは、生成されたシルエット画像を推定部3024Dに入力するための受付部としても機能することになる。 The conversion unit 3024C silhouettes the shape data based on the total length data. That is, the shape data of the object is converted to generate a silhouette image of the object. As a result, the shape data is standardized. The conversion unit 3024C also functions as a reception unit for inputting the generated silhouette image to the estimation unit 3024D.

推定部3024Dは、シルエット画像から所定個数の形状パラメータの値を推定する。推定には、対象物エンジン3021Aが使用される。推定部3024Dで推定された所定個数の対象物の形状パラメータの値は、対象物が有する任意の部位に関連する寸法データに関連付けられる。 The estimation unit 3024D estimates the values of a predetermined number of shape parameters from the silhouette image. The object engine 3021A is used for the estimation. The values of the shape parameters of a predetermined number of objects estimated by the estimation unit 3024D are associated with the dimensional data related to any part of the object.

算出部3024Eは、推定部3024Dによって推定された所定個数の形状パラメータの値から、これに関連付けられた対象物の寸法データを算出する。具体的には、算出部3024Eは、推定部3024Dで推定された対象物の形状パラメータの値から、対象物における複数の頂点の3次元データを構成し、更に、当該3次元データに基づいて対象物における任意の2つの頂点の間の寸法データを算出する。 The calculation unit 3024E calculates the dimensional data of the object associated with the predetermined number of shape parameter values estimated by the estimation unit 3024D. Specifically, the calculation unit 3024E constructs three-dimensional data of a plurality of vertices in the object from the values of the shape parameters of the object estimated by the estimation unit 3024D, and further, the object is based on the three-dimensional data. Calculate dimensional data between any two vertices in an object.

学習装置3025の処理部3027において、前処理部3027Aは、学習のための各種前処理を実施する。特に、前処理部3027Aは、サンプル対象物の3次元データを次元削減により特徴抽出することを通じて、所定個数の形状パラメータを特定する。また、サンプル対象物ごとに所定個数(次元)の形状パラメータの値を得る。サンプル対象物の形状パラメータの値は、訓練データとして記憶部3026に格納される。 In the processing unit 3027 of the learning device 3025, the preprocessing unit 3027A carries out various preprocessing for learning. In particular, the preprocessing unit 3027A specifies a predetermined number of shape parameters by extracting features of the three-dimensional data of the sample object by dimensionality reduction. In addition, a predetermined number (dimensional) of shape parameter values are obtained for each sample object. The value of the shape parameter of the sample object is stored in the storage unit 3026 as training data.

また、前処理部3027Aは、サンプル対象物の3次元データに基づいて、3次元空間内にサンプル対象物の3次元物体を仮想的に構成した上で、3次元空間内に仮想的に設けた撮像装置を用いて所定方向から3次元物体を投影する。サンプル対象物のシルエット画像は、訓練データとして記憶部3026に格納される。 Further, the preprocessing unit 3027A virtually configures the three-dimensional object of the sample object in the three-dimensional space based on the three-dimensional data of the sample object, and then virtually provides the three-dimensional object in the three-dimensional space. A three-dimensional object is projected from a predetermined direction using an image pickup device. The silhouette image of the sample object is stored in the storage unit 3026 as training data.

学習部3027Bは、サンプル対象物のシルエット画像と、サンプル対象物に関連付けられる所定個数の形状パラメータの値との関係を関連付けるように学習する。学習の結果、対象物エンジン3021Aが生成される。生成された対象物エンジン3021Aは、電子ファイルの形態で保持できる。寸法データ算出装置3020において対象物の寸法データを算出する際には、対象物エンジン3021Aは、記憶部3021に格納されて推定部3024Dによって参照される。 The learning unit 3027B learns to associate the silhouette image of the sample object with the value of a predetermined number of shape parameters associated with the sample object. As a result of learning, the object engine 3021A is generated. The generated object engine 3021A can be held in the form of an electronic file. When calculating the dimensional data of the object in the dimensional data calculation device 3020, the object engine 3021A is stored in the storage unit 3021 and referred to by the estimation unit 3024D.

(3−2)寸法データ算出システムの動作
図12及び図13を参照して、図11の寸法データ算出システム3100の動作を説明する。図12は、学習装置3025の動作(S3010)を示すフローチャートであり、サンプル対象物データに基づいて対象物エンジン3021Aを生成する。図13は、寸法データ算出装置3020の動作を示すフローチャートであり、対象物の画像データに基づいて対象物の寸法データを算出する。
(3-2) Operation of Dimension Data Calculation System The operation of the dimensional data calculation system 3100 of FIG. 11 will be described with reference to FIGS. 12 and 13. FIG. 12 is a flowchart showing the operation (S3010) of the learning device 3025, and generates the object engine 3021A based on the sample object data. FIG. 13 is a flowchart showing the operation of the dimension data calculation device 3020, and calculates the dimension data of the object based on the image data of the object.

(3−2−1)学習装置の動作
最初に、サンプル対象物のデータが準備され、記憶部3026に格納される(S3011)。一例では、準備されるデータは、400個のサンプル対象物のデータであり、サンプル対象物ごとに5,000個の3次元データを含む。3次元データには、サンプル対象物が有する頂点の3次元座標データが含まれる。また、3次元データには、3次元物体を構成する各メッシュの頂点情報及び各頂点の法線方向等のメッシュ・データ、並びに、全長データ、重量データ、及び経時データ(年齢等を含む。)等の属性データが含まれてもよい。
(3-2-1) Operation of learning device First, the data of the sample object is prepared and stored in the storage unit 3026 (S3011). In one example, the data prepared is the data of 400 sample objects, including 5,000 3D data for each sample object. The three-dimensional data includes three-dimensional coordinate data of the vertices of the sample object. The three-dimensional data includes vertex information of each mesh constituting the three-dimensional object, mesh data such as the normal direction of each vertex, total length data, weight data, and time-dependent data (including age and the like). Attribute data such as may be included.

サンプル対象物の3次元データは、頂点番号が関連付けられている。前述の例では、サンプル対象物ごとに、5,000個の頂点の3次元データが頂点番号#1〜#5,000に対応付けられている。また、頂点番号の全部又は一部は、対象物の部位の情報が関連付けられている。例えば、対象物が「人」の場合、頂点番号#20は「頭頂点」に関連付けられ、同様に、頂点番号#313は「左肩の肩峰」に、頂点番号#521は「右肩の肩峰」に関連付けられる等である。 Vertex numbers are associated with the three-dimensional data of the sample object. In the above example, three-dimensional data of 5,000 vertices is associated with vertex numbers # 1 to # 5,000 for each sample object. In addition, all or part of the vertex numbers are associated with information on the part of the object. For example, when the object is a "person", vertex number # 20 is associated with "apex", similarly, vertex number # 313 is associated with "left shoulder acromion" and vertex number # 521 is associated with "right shoulder acromion". It is associated with "peak".

続いて、前処理部3027Aは、次元削減により形状パラメータへの特徴変換を行う(S3012)。具体的には、サンプル対象物ごとに、サンプル対象物の3次元データを次元削減により特徴抽出を行う。その結果、所定個数(次元数)の形状パラメータを得る。一例では、形状パラメータの次元数は30である。次元削減は、主成分分析、Random Projection等の手法により実現される。 Subsequently, the preprocessing unit 3027A performs feature conversion into a shape parameter by reducing the dimension (S3012). Specifically, for each sample object, feature extraction is performed by reducing the dimensions of the three-dimensional data of the sample object. As a result, a predetermined number (number of dimensions) of shape parameters are obtained. In one example, the number of dimensions of the shape parameter is 30. Dimensionality reduction is realized by methods such as principal component analysis and Random Projection.

前処理部3027Aは、主成分分析の射影行列を用いて、サンプル対象物ごとに3次元データから所定個数の形状パラメータの値に変換する。これにより、関連する特徴的な情報を維持した上で、サンプル対象物の3次元データからノイズを取り除き、3次元データを圧縮することができる。 The preprocessing unit 3027A converts the three-dimensional data into the values of a predetermined number of shape parameters for each sample object by using the projection matrix of the principal component analysis. As a result, it is possible to remove noise from the three-dimensional data of the sample object and compress the three-dimensional data while maintaining the relevant characteristic information.

前述の例のように、サンプル対象物のデータが400個あり、各サンプル対象物が5,000個の頂点の3次元(座標)データを含み、各3次元データを30次元の形状パラメータに特徴変換することを想定する。ここでは、400個のサンプル対象物のデータを表す〔400行,15,000列(5,000×3)〕の頂点座標行列を行列Xとする。また、主成分分析によって生成される〔15,000行、30列〕の射影行列を行列Wとする。頂点座標行列Xに対し、射影行列Wを右から掛けることによって、〔400行、30列〕の形状パラメータ行列である行列Λを得ることができる。 As in the example above, there are 400 sample object data, each sample object contains 3D (coordinate) data of 5,000 vertices, and each 3D data is characterized by a 30-dimensional shape parameter. It is supposed to be converted. Here, the vertex coordinate matrix of [400 rows, 15,000 columns (5,000 × 3)] representing the data of 400 sample objects is defined as the matrix X. Further, the projection matrix of [15,000 rows, 30 columns] generated by the principal component analysis is defined as the matrix W. By multiplying the vertex coordinate matrix X by the projection matrix W from the right, the matrix Λ which is the shape parameter matrix of [400 rows, 30 columns] can be obtained.

つまり、形状パラメータ行列Λは次の数式から計算することができる。
That is, the shape parameter matrix Λ can be calculated from the following mathematical formula.

射影行列Wを用いた行列演算の結果、400個のサンプル対象物がそれぞれ有する15,000次元のデータは、30次元の主成分の形状パラメータ(λ,...,λ30)に特徴変換される。なお、主成分分析では、λに対する400個分の値(λ1,1,...,λ400,1)の平均値がゼロになるように計算されている。 As a result of matrix operation using the projection matrix W, the 15,000-dimensional data possessed by each of the 400 sample objects is feature-converted into the shape parameters (λ 1 , ..., λ 30 ) of the 30-dimensional principal components. Will be done. In the principal component analysis, 400 pieces of values for λ i (λ 1,1, ..., λ 400,1) the average value of is calculated to be zero.

S3012の結果、形状パラメータ行列Λを得たのに続いて、前処理部3027Aは、形状パラメータ行列Λに含まれている形状パラメータのデータ・セットを、乱数を用いて拡張する(S3013)。前述の例では、400個のデータ・セット(λi,1,...,λi,30(1≦i≦400))を、10,000個の形状パラメータの拡張データ・セット(λj,1,...,λj,30(1≦j≦10,000))にデータ拡張する。データ拡張は、正規分布を有する乱数を用いて行う。拡張データ・セットは、各形状パラメータの値の分散が3σの正規分布となる。 Following the acquisition of the shape parameter matrix Λ as a result of S3012, the preprocessing unit 3027A expands the data set of the shape parameters included in the shape parameter matrix Λ by using random numbers (S3013). In the above example, 400 data sets (λ i, 1 , ..., λ i, 30 (1 ≦ i ≦ 400)) are converted into an extended data set (λ j ) of 10,000 shape parameters. , 1 , ..., λ j, 30 (1 ≦ j ≦ 10,000)). Data expansion is performed using random numbers having a normal distribution. The extended data set has a normal distribution with a variance of the values of each shape parameter of 3σ.

拡張データ・セットに対し、射影行列Wに基づく逆変換を行うことにより、拡張データ・セットの3次元データを構成することができる。前述の例において、更に、10,000個の拡張データ・セットを表す、〔10,000行、30列〕の拡張形状パラメータ行列を行列Λ’(λj,k,...,λj,k(1≦j≦10,000及び1≦k≦30))とする。10,000個のサンプル対象物の3次元データを表す頂点座標行列X’は、拡張形状パラメータ行列Λ’に対して、〔30行,15,000列〕である射影行列Wの転置行列Wを右から掛けることによって得られる。 The three-dimensional data of the extended data set can be constructed by performing the inverse transformation of the extended data set based on the projection matrix W. In the above example, a matrix of [10,000 rows, 30 columns] extended shape parameter matrix representing 10,000 extended data sets is further plotted in the matrix Λ'(λ j, k , ..., λ j, Let k (1 ≦ j ≦ 10,000 and 1 ≦ k ≦ 30). 10,000 vertex coordinates matrix X representing a three-dimensional data of the sample object 'is expanded configuration parameter matrix lambda' relative, [30 lines, 15,000 columns] transposed matrix W T of the projection matrix W is Is obtained by multiplying from the right.

つまり、頂点座標行列X’は、次の数式から計算することができ、10,000個に拡張されたサンプル対象物ごとに、5,000個(15,000/3)の3次元データを得ることができる。
That is, the vertex coordinate matrix X'can be calculated from the following mathematical formula, and 5,000 (15,000/3) three-dimensional data are obtained for each sample object expanded to 10,000. be able to.

S13の結果、頂点座標行列X’が得られたのに続いて、前処理部3027Aは、拡張されたサンプル対象物の3次元データに基づいて、それぞれのシルエット画像を生成する(S3014)。前述の例では、10,000個のサンプル対象物ごとに、3次元空間内において5,000個の3次元データから、サンプル対象物の3次元物体を仮想的に構成する。そして、同じく3次元空間内に仮想的に設けられ、任意の方向から投影可能な投影装置を用いて3次元物体を投影する。前述の例では、10,000個のサンプル対象物ごとに、正面方向及び側面方向の2枚のシルエット画像を投影により取得するのがよい。取得されるシルエット画像は、白黒の2値化データで表される。 Following the acquisition of the vertex coordinate matrix X'as a result of S13, the preprocessing unit 3027A generates each silhouette image based on the expanded three-dimensional data of the sample object (S3014). In the above example, for every 10,000 sample objects, a three-dimensional object of the sample object is virtually constructed from 5,000 three-dimensional data in the three-dimensional space. Then, a three-dimensional object is projected using a projection device that is also virtually provided in the three-dimensional space and can be projected from an arbitrary direction. In the above example, it is preferable to acquire two silhouette images in the front direction and the side direction by projection for each 10,000 sample objects. The acquired silhouette image is represented by black and white binarized data.

最後に、学習部3027Bは、学習により、サンプル対象物に関連付けられた形状パラメータの値と、サンプル対象物のシルエット画像との関係を関連付ける(S3015)。具体的には、S3013で得た形状パラメータのデータ・セットと、S3014で得たシルエット画像との組を訓練データに用いて、両者の関係をディープラーニングにより学習させるのがよい。 Finally, the learning unit 3027B associates the value of the shape parameter associated with the sample object with the silhouette image of the sample object by learning (S3015). Specifically, it is preferable to use the set of the shape parameter data set obtained in S3013 and the silhouette image obtained in S3014 as training data to learn the relationship between the two by deep learning.

より詳しくは、前述の例で10,000個に拡張されたサンプル対象物について、各シルエット画像の2値化データをディープラーニングのネットワーク・アーキテクチャに入力する。ディープラーニングにおける特徴抽出では、ネットワーク・アーキテクチャから出力されるデータが、30個の形状パラメータの値に近づくように、ネットワーク・アーキテクチャの重み係数が設定される。なお、ここでのディープラーニングは、一例では、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を利用することができる。 More specifically, for the sample objects expanded to 10,000 in the above example, the binarized data of each silhouette image is input to the deep learning network architecture. In feature extraction in deep learning, the weighting factors of the network architecture are set so that the data output from the network architecture approaches the values of the 30 shape parameters. For deep learning here, for example, a convolutional neural network (CNN) can be used.

このようにして、S3014では、サンプル対象物に関連付けられた形状パラメータの値と、サンプル対象物のシルエット画像との関係をディープラーニングにより学習させ、ディープラーニングのネットワーク・アーキテクチャが構築される。その結果、対象物のシルエット画像が入力されるのに応じて、形状パラメータの値を推定する推定モデルである対象物エンジン3021Aが生成される。 In this way, in S3014, the relationship between the value of the shape parameter associated with the sample object and the silhouette image of the sample object is learned by deep learning, and the network architecture of deep learning is constructed. As a result, the object engine 3021A, which is an estimation model for estimating the value of the shape parameter, is generated in response to the input of the silhouette image of the object.

(3−2−2)寸法データ算出装置の動作
寸法データ算出装置3020は、学習装置3025で生成された対象物エンジン3021Aの電子ファイル、及び学習装置3025で得た主成分分析の射影情報を予め記憶部3021に格納して、対象物の寸法データ算出に使用する。
(3-2-2) Operation of Dimension Data Calculator The Dimension Data Calculator 3020 previously obtains the electronic file of the object engine 3021A generated by the learning device 3025 and the projection information of the principal component analysis obtained by the learning device 3025. It is stored in the storage unit 3021 and used for calculating the dimensional data of the object.

最初に、取得部3024Aは、入出力部3122を通じて、外部の端末装置等を介して対象物の全体を異なる方向から撮影した複数の画像データを、対象物の全長を示す全長データと共に取得する(S3021)。次いで、抽出部3024Bは、各画像データから対象物の各部分の形状を示す形状データをそれぞれ抽出する(S3022)。続いて、変換部3024Cは、全長データに基づいて各形状データを所定の大きさに変換するリスケール処理を実行する(S3023)。S3021〜S3023のステップを通じて、対象物のシルエット画像が生成され、寸法データ算出装置3020は対象物のシルエット画像を受け付ける。 First, the acquisition unit 3024A acquires, through the input / output unit 3122, a plurality of image data obtained by photographing the entire object from different directions via an external terminal device or the like together with the total length data indicating the total length of the object ( S3021). Next, the extraction unit 3024B extracts shape data indicating the shape of each part of the object from each image data (S3022). Subsequently, the conversion unit 3024C executes a rescale process for converting each shape data into a predetermined size based on the total length data (S3023). Through the steps S3021 to S3023, a silhouette image of the object is generated, and the dimension data calculation device 3020 receives the silhouette image of the object.

次いで、予め記憶部3021に格納された対象物エンジン3021Aを使用して、推定部3024Dは、受け付けたシルエット画像から対象物の形状パラメータの値を推定する(S3024)。そして、算出部3024Eは、対象物の形状パラメータの値に基づいて、対象物が有する部位に関連する寸法データを算出する(S3025)。 Next, using the object engine 3021A previously stored in the storage unit 3021, the estimation unit 3024D estimates the value of the shape parameter of the object from the received silhouette image (S3024). Then, the calculation unit 3024E calculates the dimensional data related to the portion of the object based on the value of the shape parameter of the object (S3025).

具体的には、S3025での寸法データの算出では、最初に、対象物について対象物エンジン3021Aで推定された所定個数の形状パラメータの値から、対象物の頂点の3次元データを構成する。ここでは、学習段階において前処理部3027Aで実施した次元削減に係る射影(S3010)の逆変換を行えばよい。より詳しくは、推定された所定個数の形状パラメータの値(列ベクトル)に対し、主成分分析に係る射影行列Wの転置行列Wを右から掛けることによって、3次元データを得ることができる。 Specifically, in the calculation of the dimensional data in S3025, first, three-dimensional data of the vertices of the object is constructed from the values of a predetermined number of shape parameters estimated by the object engine 3021A for the object. Here, the inverse transformation of the projection (S3010) related to the dimension reduction carried out by the preprocessing unit 3027A in the learning stage may be performed. More specifically, with respect to the values of the shape parameters of the estimated predetermined number (column vector), by multiplying the transposed matrix W T of the projection matrix W according to the principal component analysis from the right, it is possible to obtain three-dimensional data.

前述の例では、対象物の形状パラメータの値Λ’’に対し、対象物の3次元データX’’は、次の数式から計算することができる。
In the above example, the three-dimensional data X'' of the object can be calculated from the following mathematical formula with respect to the value Λ'' of the shape parameter of the object.

S3025において、算出部3024Eは、3次元データを使用して、対象物における任意の2つの頂点の間の寸法データを算出する。ここでは、3次元データから3次元物体を仮想的に構成し、3次元物体上の曲面に沿って2つの頂点の間の寸法データを算出する。つまり、3次元物体の立体的な形状に沿うようにして、2つの頂点間の距離を立体的に算出することができる。2つの頂点間の距離を立体的に算出するためには、最初に、多数の頂点(前述の例では5,000個の3次元データ)によって構成される3次元のメッシュ上で2つの頂点の間を繋ぐ最短経路を探索し、最短経路が通るメッシュを特定する。次いで、特定されたメッシュの頂点座標データを用いて、最短経路に沿ってメッシュ毎に距離を算出し、合算する。その合計値が2つの頂点間の立体的な距離となる。なお、立体的な距離の計算には、3次元物体を構成する各メッシュの頂点情報及び各頂点の法線方向等のメッシュ・データを用いることができる。 In S3025, the calculation unit 3024E uses the three-dimensional data to calculate the dimensional data between any two vertices in the object. Here, a three-dimensional object is virtually constructed from the three-dimensional data, and dimensional data between two vertices is calculated along a curved surface on the three-dimensional object. That is, the distance between two vertices can be calculated three-dimensionally so as to follow the three-dimensional shape of the three-dimensional object. In order to calculate the distance between two vertices three-dimensionally, first, two vertices are arranged on a three-dimensional mesh composed of a large number of vertices (5,000 three-dimensional data in the above example). Search for the shortest path connecting between them and identify the mesh through which the shortest path passes. Next, using the vertex coordinate data of the specified mesh, the distance is calculated for each mesh along the shortest path and added up. The total value is the three-dimensional distance between the two vertices. For the calculation of the three-dimensional distance, the vertex information of each mesh constituting the three-dimensional object and the mesh data such as the normal direction of each vertex can be used.

例えば、対象物が「人」であり、人の「肩幅」を算出する場合を想定する。事前準備として、「肩幅=左肩の肩峰を示す頂点と右肩の肩峰を示す頂点の間の距離」であることを予め規定しておく。また、左肩の肩峰を示す頂点の頂点番号が例えば#313であり、右肩の肩峰を示す頂点の頂点番号が例えば#521であることを予め関連付けておく。これらの情報は予め記憶部3021に格納される。寸法データ算出の際は、頂点番号#313から#521に向けた最短経路を特定し、最短経路に関連して特定されたメッシュの頂点座標データを用いて、最短経路に沿ってメッシュ毎に距離を算出し、合計すればよい。 For example, assume that the object is a "person" and the "shoulder width" of the person is calculated. As a preliminary preparation, it is defined in advance that "shoulder width = distance between the apex indicating the acromion of the left shoulder and the apex indicating the acromion of the right shoulder". Further, it is associated in advance that the apex number indicating the acromion of the left shoulder is, for example, # 313, and the apex number of the apex indicating the acromion of the right shoulder is, for example, # 521. These pieces of information are stored in the storage unit 3021 in advance. When calculating the dimensional data, the shortest path from the vertex numbers # 313 to # 521 is specified, and the vertex coordinate data of the mesh specified in relation to the shortest path is used to determine the distance for each mesh along the shortest path. Can be calculated and totaled.

このように、本実施形態の寸法データ算出装置3020は、対象物エンジン3021Aを使用することにより、シルエット画像から所定個数の形状パラメータの値を高精度に推定することができる。また、高精度に推定された形状パラメータの値から、対象物の3次元データを高精度に復元することができるので、特定部位のみならず任意の2つの頂点間を採寸対象箇所として、高精度に算出することができる。特に、算出される2つの頂点の間の寸法データは、3次元データから構成される3次元物体に基づいて立体的な形状に沿って算出されるので、高精度である。 As described above, the dimension data calculation device 3020 of the present embodiment can estimate the values of a predetermined number of shape parameters from the silhouette image with high accuracy by using the object engine 3021A. In addition, since the three-dimensional data of the object can be restored with high accuracy from the values of the shape parameters estimated with high accuracy, the measurement target location is not only the specific part but also between any two vertices with high accuracy. Can be calculated. In particular, the calculated dimensional data between the two vertices is highly accurate because it is calculated along a three-dimensional shape based on a three-dimensional object composed of three-dimensional data.

(3−3)寸法データ算出システムの特徴
a)以上説明したように、本実施形態に係る寸法データ算出システム3100は、寸法データ算出装置3020及び学習装置3025を備える。寸法データ算出装置3020の一部として構成される情報処理装置は、変換部(受付部)3024C及び推定部3024Dを備える。変換部(受付部)3024Cは、対象物のシルエット画像を受け付ける。推定部3024Dは、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジン3021Aを使用して、受け付けたシルエット画像から対象物の形状パラメータの値を推定する。そして、推定された対象物の形状パラメータの値が、対象物が有する任意の部位に関連する寸法データに関連付けられる。
(3-3) Features of Dimension Data Calculation System a) As described above, the dimensional data calculation system 3100 according to the present embodiment includes a dimensional data calculation device 3020 and a learning device 3025. The information processing device configured as a part of the dimension data calculation device 3020 includes a conversion unit (reception unit) 3024C and an estimation unit 3024D. The conversion unit (reception unit) 3024C receives a silhouette image of the object. The estimation unit 3024D uses the object engine 3021A that associates the silhouette image of the sample object with the values of a predetermined number of shape parameters associated with the sample object, and uses the object engine 3021A to obtain the shape parameters of the object from the received silhouette image. Estimate the value. Then, the value of the estimated shape parameter of the object is associated with the dimensional data related to any part of the object.

また、寸法データ算出装置3020は、取得部3024A、抽出部3024B、変換部3024C、推定部3024D、及び算出部3024Eを備える。取得部3024Aは、対象物が撮影された画像データ及び対象物の全長データを取得する。抽出部3024Bは、画像データから対象物の形状を示す形状データを抽出する。変換部3024Cは形状データを全長データに基づいてシルエット画像に変換する。推定部3024Dは、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジン3021Aを使用して、シルエット画像から所定個数の形状パラメータの値を推定する。算出部3024Eは、推定された所定個数の形状パラメータの値に基づいて、対象物の寸法データを算出する。 Further, the dimension data calculation device 3020 includes an acquisition unit 3024A, an extraction unit 3024B, a conversion unit 3024C, an estimation unit 3024D, and a calculation unit 3024E. The acquisition unit 3024A acquires the image data in which the object is photographed and the total length data of the object. The extraction unit 3024B extracts shape data indicating the shape of the object from the image data. The conversion unit 3024C converts the shape data into a silhouette image based on the total length data. The estimation unit 3024D uses the object engine 3021A that associates the silhouette image of the sample object with the value of a predetermined number of shape parameters associated with the sample object, and obtains the value of a predetermined number of shape parameters from the silhouette image. presume. The calculation unit 3024E calculates the dimensional data of the object based on the estimated values of a predetermined number of shape parameters.

したがって、かかる寸法データ算出装置3020は、予め作成済みの対象物エンジン3021Aを使用することにより、シルエット画像から所定個数の形状パラメータの値を高精度に推定することができる。また、高精度に推定された形状パラメータの値を用いることで、対象物の任意の部位に関連するデータを効率的且つ高精度で算出することができる。このように、寸法データ算出装置3020によれば、対象物について算出される寸法データを効率的且つ高精度で提供することができる。 Therefore, the dimension data calculation device 3020 can estimate the values of a predetermined number of shape parameters from the silhouette image with high accuracy by using the object engine 3021A created in advance. Further, by using the value of the shape parameter estimated with high accuracy, it is possible to efficiently and accurately calculate the data related to an arbitrary part of the object. As described above, according to the dimension data calculation device 3020, the dimension data calculated for the object can be provided efficiently and with high accuracy.

かかる寸法データ算出装置3020を用いることで、例えば、対象物として生物の各部分の寸法データを高精度に算出することができる。また、対象物として車や各種荷物等、任意の物体の各部分の寸法データを高精度に算出することができる。更に、寸法データ算出装置3020を、各種製品を製造する製品製造装置に組み込むことで、対象物の形状に適合した製品を製造することが可能となる。 By using such a dimensional data calculation device 3020, for example, dimensional data of each part of an organism as an object can be calculated with high accuracy. In addition, it is possible to calculate the dimensional data of each part of an arbitrary object such as a car or various kinds of luggage as an object with high accuracy. Further, by incorporating the dimension data calculation device 3020 into a product manufacturing device that manufactures various products, it is possible to manufacture a product that matches the shape of the object.

かかる寸法データ算出装置3020を用いることで、例えば、対象物として生物の各部位に関連する寸法データを高精度に算出することができる。また、対象物として車や各種荷物等、任意の物体の各部分の寸法データを高精度に算出することができる。また、寸法データ算出装置3020を、各種製品を製造する製品製造装置に組み込むことで、対象物の形状に適合した製品を製造することが可能となる。 By using such a dimensional data calculation device 3020, for example, dimensional data related to each part of an organism as an object can be calculated with high accuracy. In addition, it is possible to calculate the dimensional data of each part of an arbitrary object such as a car or various kinds of luggage as an object with high accuracy. Further, by incorporating the dimension data calculation device 3020 into a product manufacturing device that manufactures various products, it is possible to manufacture a product that matches the shape of the object.

b)かかる寸法データ算出装置3020では、サンプル対象物に関連付けられた所定個数の形状パラメータが、サンプル対象物の3次元データを次元削減することによって特定される。特に、次元削減は主成分分析により行われる。これにより、サンプル対象物の3次元データからノイズを効果的に取り除き、3次元データを圧縮することができる。 b) In such a dimensional data calculation device 3020, a predetermined number of shape parameters associated with the sample object are specified by reducing the three-dimensional data of the sample object. In particular, dimensionality reduction is performed by principal component analysis. As a result, noise can be effectively removed from the three-dimensional data of the sample object, and the three-dimensional data can be compressed.

c)かかる寸法データ算出装置3020では、推定された所定個数の形状パラメータの値に対し、上記主成分分析に係る射影の逆変換により対象物の3次元データが算出され、3次元データが寸法データに関連付けられる。これにより、対象物のシルエット画像の入力に対し、3次元データを対象物の3次元データを高精度に構成することができる。 c) In the dimension data calculation device 3020, the three-dimensional data of the object is calculated by the inverse conversion of the projection according to the above principal component analysis with respect to the estimated predetermined number of shape parameter values, and the three-dimensional data is the dimension data. Associated with. Thereby, the three-dimensional data can be configured with high accuracy for the input of the silhouette image of the object.

d)かかる寸法データ算出装置3020では、サンプル対象物のシルエット画像が、サンプル対象物の3次元データから構成される3次元物体における所定方向の投影画像である。つまり、サンプル対象物の3次元データを用いて3次元物体を構成した上で、これを投影することによりシルエット画像が得られる。正面方向及び側面方向の2枚のシルエット画像を投影により取得するのがよい。これにより、サンプル対象物のシルエット画像を高精度に生成することができる。 d) In the dimension data calculation device 3020, the silhouette image of the sample object is a projection image in a predetermined direction of the three-dimensional object composed of the three-dimensional data of the sample object. That is, a silhouette image can be obtained by constructing a three-dimensional object using the three-dimensional data of the sample object and then projecting the object. It is preferable to acquire two silhouette images in the front direction and the side direction by projection. As a result, a silhouette image of the sample object can be generated with high accuracy.

e)かかる寸法データ算出装置3020では、対象物エンジン3021Aが、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値との関係を学習することにより生成されている。当該学習は、ディープラーニングにより行うことができる。ディープラーニングによる学習を行うことにより、サンプル対象物のシルエット画像とサンプル対象物の形状パラメータの値との対応付けを高精度に行うことができる。 e) In the dimension data calculation device 3020, the object engine 3021A is generated by learning the relationship between the silhouette image of the sample object and the value of a predetermined number of shape parameters associated with the sample object. The learning can be performed by deep learning. By learning by deep learning, it is possible to associate the silhouette image of the sample object with the value of the shape parameter of the sample object with high accuracy.

f)かかる寸法データ算出装置3020の算出部3024Eでは、対象物について推定された所定個数の形状パラメータの値から、対象物における複数の頂点の3次元データを構成する。そして、構成された3次元データに基づいて、対象物における任意の2つの頂点の間の寸法データを算出する。つまり、対象物の3次元データを用いて3次元物体を構成した上で、この寸法データを算出する。これにより、対象物の3次元物体の形状から2つの頂点の間の寸法データを算出することができるので、採寸対象箇所が特定部分に限定されることがない。 f) The calculation unit 3024E of the dimension data calculation device 3020 configures three-dimensional data of a plurality of vertices in the object from the values of a predetermined number of shape parameters estimated for the object. Then, based on the constructed three-dimensional data, the dimensional data between any two vertices in the object is calculated. That is, the dimensional data is calculated after constructing a three-dimensional object using the three-dimensional data of the object. As a result, the dimensional data between the two vertices can be calculated from the shape of the three-dimensional object of the object, so that the measurement target location is not limited to a specific portion.

特に、かかる寸法データ算出装置3020の算出部3024Eでは、2つの頂点の間の寸法データが、対象物において複数の頂点の3次元データから構成される3次元物体上の曲面に沿って算出される。これにより、寸法データを更に高精度に算出することができる。 In particular, in the calculation unit 3024E of the dimension data calculation device 3020, the dimension data between the two vertices is calculated along the curved surface on the three-dimensional object composed of the three-dimensional data of a plurality of vertices in the object. .. As a result, the dimensional data can be calculated with higher accuracy.

(3−4)変形例
a)上記説明においては、取得部3024Aが、対象物を異なる方向から撮影した複数の画像データを取得している。ここでは、対象物を複数の異なる方向から同時に撮影できる撮像装置として、深度データを併せて取得可能な深度データ測定装置が適用可能である。深度データ測定装置の一例はステレオカメラである。本明細書において「ステレオカメラ」とは、対象物を複数の異なる方向から同時に撮影して、両眼視差を再現する任意の形態の撮像装置を意味している。他方、必ずしも画像データが複数必要であるわけではなく、対象物の画像データが一枚であっても各部分の寸法データを算出することが可能である。
(3-4) Modification example a) In the above description, the acquisition unit 3024A acquires a plurality of image data obtained by photographing the object from different directions. Here, as an imaging device capable of simultaneously photographing an object from a plurality of different directions, a depth data measuring device capable of acquiring depth data together can be applied. An example of a depth data measuring device is a stereo camera. As used herein, the term "stereo camera" means an image pickup device of any form that reproduces binocular parallax by simultaneously photographing an object from a plurality of different directions. On the other hand, a plurality of image data are not always required, and it is possible to calculate the dimensional data of each part even if the image data of the object is one.

b)上記説明においては、グラブカットアルゴリズムを採用して、対象物と対象物以外の背景画像とを分離してもよいものとした。これ以外にも、例えば、取得部3024Aにおいて前述のステレオカメラを用いた場合には、ステレオカメラから取得される深度データを用いて、対象物と対象物以外の背景画像とを分離することが可能である。これにより、更に高精度に対象物の形状データを生成することが可能となる。更に、ステレオカメラ以外にも、LiDAR(Light Detection and Ranging)装置により深度データを求め、対象物と対象物以外の背景画像とを分離することが可能である。すなわち、取得部3024Aに深度データを測定できる任意の機械(深度データ測定装置)を用いることで、高精度に対象物の形状データを生成することが可能となる。 b) In the above description, the grab cut algorithm may be adopted to separate the object and the background image other than the object. In addition to this, for example, when the stereo camera described above is used in the acquisition unit 3024A, it is possible to separate the object and the background image other than the object by using the depth data acquired from the stereo camera. Is. This makes it possible to generate shape data of the object with higher accuracy. Further, in addition to the stereo camera, it is possible to obtain depth data by a LiDAR (Light Detection and Ranging) device and separate an object and a background image other than the object. That is, by using an arbitrary machine (depth data measuring device) capable of measuring depth data in the acquisition unit 3024A, it is possible to generate shape data of an object with high accuracy.

c)上記説明においては、S3013で、前処理部3027Aは、形状パラメータのデータ・セットを、乱数を用いて拡張するデータ拡張処理を行った。データ拡張処理は、サンプル対象物の数に応じてどの程度の数まで拡張するかを決定すればよい。サンプル数が予め十分に用意されている場合には、S3013の拡張処理は行わなくてもよい。 c) In the above description, in S3013, the preprocessing unit 3027A performed a data expansion process for expanding the shape parameter data set using random numbers. In the data expansion process, it is sufficient to determine how many the data expansion process should be expanded according to the number of sample objects. If a sufficient number of samples are prepared in advance, the expansion process of S3013 may not be performed.

c)上記説明においては、サンプル対象物に対し、形状パラメータ(λ,・・・,λ30)は学習装置3025の前処理部3027Aにおいて主成分分析によって取得した。ここで、サンプル対象物が「人」である場合の形状パラメータについて更に考察する。前述の例のように400個のサンプル対象物及び5,000個の頂点の3次元データを用いて主成分分析を行った結果、対象物が「人」である場合の形状パラメータは少なくとも次の特性を有することが考察された。 c) In the above description, the shape parameters (λ 1 , ..., λ 30 ) were obtained by principal component analysis in the pretreatment unit 3027A of the learning device 3025 for the sample object. Here, the shape parameters when the sample object is a "human" will be further considered. As a result of principal component analysis using three-dimensional data of 400 sample objects and 5,000 vertices as in the above example, the shape parameters when the object is "human" are at least as follows. It was considered to have properties.

〔特性1〕
第1順位の主成分λは、人の身長との間で線形の関係を有するように関連付けられていた。具体的には、図14に示すように、第1順位の主成分λが大きくなればなるほど、人の身長が小さくなるというものであった。
[Characteristic 1]
The first-ranked principal component λ 1 was associated to have a linear relationship with human height. Specifically, as shown in FIG. 14, the larger the main component λ 1 of the first rank, the smaller the height of a person.

特性1を考慮すれば、推定部3024Dによる人の形状パラメータの値の推定時は、第1順位の主成分λに関しては、対象物エンジン3021Aを用いることなく取得部3024Aで取得した身長データを利用すればよい。具体的には、第1順位の主成分λの値は、人の身長を説明変数とする線形回帰モデルを利用することにより、別途計算するように構成すればよい。 Considering the characteristic 1, when estimating the value of the human shape parameter by the estimation unit 3024D, the height data acquired by the acquisition unit 3024A without using the object engine 3021A is obtained for the first-order main component λ 1. You can use it. Specifically, the value of the first-ranked principal component λ 1 may be configured to be calculated separately by using a linear regression model using the height of a person as an explanatory variable.

この場合、学習段階で学習部3027Bにおいて対象物エンジン3021Aを生成する時においても、当該主成分λを学習対象から除いてもよい。前述のとおり、学習装置3025における学習段階では、ネットワーク・アーキテクチャの重み付けを行う。この際、入力されたシルエット画像を主成分分析することで得られる第1順位の主成分を除いた第2順位以降の主成分と、訓練データである形状パラメータλ以降の値との誤差が最小化されるようにネットワーク・アーキテクチャの重み係数を設定してもよい。これにより、対象物が「人」である場合は、上記線形回帰モデルの利用と併せて、推定部3024Dにおける形状パラメータの値の推定精度を向上させることができる。 In this case, the main component λ 1 may be excluded from the learning target even when the object engine 3021A is generated by the learning unit 3027B in the learning stage. As described above, in the learning stage of the learning device 3025, the network architecture is weighted. At this time, there is an error between the second and subsequent principal components excluding the first-rank principal component obtained by principal component analysis of the input silhouette image and the values after the shape parameter λ 2 which is training data. The network architecture weighting factor may be set to be minimized. As a result, when the object is a "human", the estimation accuracy of the value of the shape parameter in the estimation unit 3024D can be improved in addition to the use of the linear regression model.

また、学習段階で学習部3027Bにおいて対象物エンジン3021Aを生成するときには、第1順位の主成分も含めて、形状パラメータλ以降の値との誤差が最小化されるようにネットワーク・アーキテクチャの重み係数を設定してもよい。そして、第1順位の主成分λの値は、人の身長を説明変数とする線形回帰モデルを利用することにより、別途計算した値と置き換えてもよい。これにより、対象物が「人」である場合は、上記線形回帰モデルの利用と併せて、推定部3024Dにおける形状パラメータの値の推定精度を向上させることができる。 Further, when the object engine 3021A is generated in the learning unit 3027B in the learning stage, the weight of the network architecture is minimized so that the error from the value after the shape parameter λ 1 is minimized including the first-ranked principal component. A coefficient may be set. Then, the value of the first-ranked principal component λ 1 may be replaced with a separately calculated value by using a linear regression model using the height of a person as an explanatory variable. As a result, when the object is a "human", the estimation accuracy of the value of the shape parameter in the estimation unit 3024D can be improved in addition to the use of the linear regression model.

〔特性2〕
図15は、主成分である形状パラメータの再現率を示した概略グラフである。グラフにおいて横軸が寄与率によって順位付けされた主成分を示し、縦軸が固有値の分散説明率を示している。そして、棒グラフは、順位ごとの個別の分散説明率を示している。また、実線の折れ線グラフは、第1順位からの分散説明率の累積を示している。図15では、簡単のため、第10順位までの10個の主成分に関するグラフを概略的に示している。なお、主成分分析において求められる共分散行列の固有値は固有ベクトル(主成分)の大きさを表しており、固有値の分散説明率は主成分に対する再現率と考えてよい。
[Characteristic 2]
FIG. 15 is a schematic graph showing the recall rate of the shape parameter which is the main component. In the graph, the horizontal axis shows the principal components ranked by the contribution rate, and the vertical axis shows the variance explanation rate of the eigenvalues. Then, the bar graph shows the individual variance explanation rate for each rank. In addition, the solid line graph shows the accumulation of the variance explanation rate from the first rank. In FIG. 15, for the sake of simplicity, a graph relating to the 10 principal components up to the 10th rank is shown schematically. The eigenvalue of the covariance matrix obtained in the principal component analysis represents the magnitude of the eigenvector (principal component), and the variance explanation rate of the eigenvalue can be considered as the recall rate for the principal component.

図15のグラフを参照すると、第1順位から第10順位までの10個の主成分で分散説明率の累積が約0.95を示している(破線矢印)。つまり、第1順位から第10順位までの10個の主成分の再現率が約95%であることが当業者には理解される。すなわち、前述の例では、次元削減によって特徴変換される形状パラメータは30次元としたが、これに限らず、仮に形状パラメータを10次元としても約95%をカバーできている。すなわち、上記説明において形状パラメータの個数(次元数)は30個としたが、特性2を考慮すれば、10個程度のものとしてよい。 With reference to the graph of FIG. 15, the cumulative variance explanation rate of the 10 principal components from the 1st rank to the 10th rank shows about 0.95 (dashed line arrow). That is, those skilled in the art will understand that the recall rate of the 10 main components from the 1st rank to the 10th rank is about 95%. That is, in the above example, the shape parameter whose characteristics are converted by dimension reduction is 30 dimensions, but the shape parameter is not limited to this, and even if the shape parameter is 10 dimensions, about 95% can be covered. That is, although the number of shape parameters (number of dimensions) is 30 in the above description, it may be about 10 in consideration of the characteristic 2.

d)上記説明においては、学習装置3025の前処理部3027Aにおいて、10,000個のサンプル対象物ごとに、正面方向及び側面方向の2枚のシルエット画像を投影により取得した。他方、対象物のシルエット画像は必ずしも2枚必要とするわけではなく、1枚でよい。 d) In the above description, in the pretreatment unit 3027A of the learning device 3025, two silhouette images in the front direction and the side direction were acquired by projection for each 10,000 sample objects. On the other hand, two silhouette images of the object are not always required, and one image is sufficient.

(3−5)製品製造システムへの適用
以下、前述の寸法データ算出装置3020を製品製造システム3001に適用する例について説明する。
(3-5) Application to Product Manufacturing System An example of applying the above-mentioned dimension data calculation device 3020 to the product manufacturing system 3001 will be described below.

(3−5−1)製品製造システムの構成
図16は本実施形態に係る製品製造システム3001の概念を示す模式図である。製品製造システム3001は、ユーザ3005が保有する端末装置3010と通信可能な寸法データ算出装置3020と、製品製造装置3030とを備え、所望の製品3006を製造するためのシステムである。図16では、一例として、対象物3007が人であり、製品3006が椅子であるときの概念を示している。但し、本実施形態に係る製品製造システム3001において、対象物3007及び製品3006はこれらに限定されるものではない。
(3-5-1) Configuration of Product Manufacturing System FIG. 16 is a schematic diagram showing the concept of the product manufacturing system 3001 according to the present embodiment. The product manufacturing system 3001 includes a dimension data calculation device 3020 capable of communicating with the terminal device 3010 owned by the user 3005, and a product manufacturing device 3030, and is a system for manufacturing a desired product 3006. In FIG. 16, as an example, the concept when the object 3007 is a person and the product 3006 is a chair is shown. However, in the product manufacturing system 3001 according to the present embodiment, the object 3007 and the product 3006 are not limited thereto.

端末装置3010は、所謂スマートデバイスにより実現することができる。ここでは、スマートデバイスに、ユーザ用プログラムがインストールされることで端末装置3010が各種機能を発揮する。具体的には、端末装置3010は、ユーザ3005により撮像される画像データを生成する。ここで、端末装置3010は、対象物を複数の異なる方向から同時に撮影して、両眼視差を再現するステレオカメラ機能を有するものでもよい。なお、画像データは端末装置3010で撮影されるものに限定されず、例えば、店舗内に設置されたステレオカメラを用いて撮影されたものを利用してもよい。 The terminal device 3010 can be realized by a so-called smart device. Here, the terminal device 3010 exerts various functions by installing a user program on the smart device. Specifically, the terminal device 3010 generates image data captured by the user 3005. Here, the terminal device 3010 may have a stereo camera function that reproduces binocular parallax by simultaneously photographing an object from a plurality of different directions. The image data is not limited to the one taken by the terminal device 3010, and for example, the image data taken by a stereo camera installed in the store may be used.

また、端末装置3010は、対象物3007の属性を示す属性データの入力を受け付ける。「属性」には、対象物3007の全長・重量・生成からの経過時間(年齢を含む。)等が含まれる。また、端末装置3010は、通信機能を有しており、寸法データ算出装置3020及び製品製造装置3030と端末装置3010との間で各種情報の送受信を実行する。 Further, the terminal device 3010 accepts the input of the attribute data indicating the attribute of the object 3007. The "attribute" includes the total length, weight, elapsed time (including age), etc. of the object 3007. Further, the terminal device 3010 has a communication function, and executes transmission / reception of various information between the dimension data calculation device 3020, the product manufacturing device 3030, and the terminal device 3010.

寸法データ算出装置3020は任意のコンピュータにより実現することができる。ここでは、寸法データ算出装置3020の記憶部3021は、端末装置3010のユーザ3005を識別する識別情報に関連付けて、端末装置3010から送信される情報を記憶する。また、記憶部3021は、寸法データを算出する情報処理を実行するために必要なパラメータ等を記憶する。 The dimensional data calculation device 3020 can be realized by any computer. Here, the storage unit 3021 of the dimension data calculation device 3020 stores the information transmitted from the terminal device 3010 in association with the identification information that identifies the user 3005 of the terminal device 3010. In addition, the storage unit 3021 stores parameters and the like necessary for executing information processing for calculating dimensional data.

また、寸法データ算出装置3020の処理部3024は、前述のとおり、取得部3024A、抽出部3024B、変換部3024C、推定部3024D、及び算出部3024Eとして機能する。ここでは、取得部3024Aは、ユーザ3005によりステレオカメラで撮影された画像データ及び対象物3007の属性データを取得する。また、抽出部3024Bは、画像データから対象物3007の形状を示す形状データを抽出する。例えば、対象物の種類として「人」が予め設定されている場合には、人を識別するための訓練データを用いてセマンティックセグメンテーションのアルゴリズムが構築されている。また、抽出部3024Bは、ステレオカメラから取得される深度データを用いて、対象物と対象物以外の背景画像とを分離するのがよい。変換部3024Cは、形状データを全長データに基づいてシルエット画像に変換する。変換部3024Cは、生成されたシルエット画像を推定部3024Dに入力するための受付部としても機能することになる。 Further, as described above, the processing unit 3024 of the dimension data calculation device 3020 functions as the acquisition unit 3024A, the extraction unit 3024B, the conversion unit 3024C, the estimation unit 3024D, and the calculation unit 3024E. Here, the acquisition unit 3024A acquires the image data taken by the user 3005 with the stereo camera and the attribute data of the object 3007. Further, the extraction unit 3024B extracts shape data indicating the shape of the object 3007 from the image data. For example, when "person" is preset as the type of object, a semantic segmentation algorithm is constructed using training data for identifying a person. Further, the extraction unit 3024B preferably uses the depth data acquired from the stereo camera to separate the object and the background image other than the object. The conversion unit 3024C converts the shape data into a silhouette image based on the total length data. The conversion unit 3024C also functions as a reception unit for inputting the generated silhouette image to the estimation unit 3024D.

推定部3024Dは、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジン3021Aを使用して、シルエット画像から所定個数の形状パラメータの値を推定する。算出部3024Eは、推定された所定個数の形状パラメータの値に基づいて、対象物の寸法データを算出する。具体的には、推定部3024Dで推定された対象物の形状パラメータの値から、対象物における複数の頂点の3次元データを構成し、更に、当該3次元データに基づいて対象物における任意の2つの頂点の間の寸法データを算出する。 The estimation unit 3024D uses the object engine 3021A that associates the silhouette image of the sample object with the value of a predetermined number of shape parameters associated with the sample object, and obtains the value of a predetermined number of shape parameters from the silhouette image. presume. The calculation unit 3024E calculates the dimensional data of the object based on the estimated values of a predetermined number of shape parameters. Specifically, three-dimensional data of a plurality of vertices in the object is constructed from the values of the shape parameters of the object estimated by the estimation unit 3024D, and further, any two in the object based on the three-dimensional data. Calculate the dimensional data between two vertices.

製品製造装置3030は、寸法データ算出装置3020を用いて算出された少なくとも1つの寸法データを用いて、対象物3007の形状に関連する所望の製品を製造する製造装置である。なお、製品製造装置3030は、自動で製品を製造・加工できる任意の装置を採用することができ、例えば3次元プリンタ等により実現することができる。 The product manufacturing apparatus 3030 is a manufacturing apparatus that manufactures a desired product related to the shape of the object 3007 by using at least one dimensional data calculated by using the dimensional data calculating device 3020. As the product manufacturing apparatus 3030, any apparatus capable of automatically manufacturing and processing a product can be adopted, and can be realized by, for example, a three-dimensional printer or the like.

(3−5−2)製品製造システムの動作
図17は、本実施形態に係る製品製造システム3001の動作を説明するためのシーケンス図である。また、図18及び図19は端末装置3010の画面遷移を示す模式図である。
(3-5-2) Operation of Product Manufacturing System FIG. 17 is a sequence diagram for explaining the operation of the product manufacturing system 3001 according to the present embodiment. 18 and 19 are schematic views showing screen transitions of the terminal device 3010.

まず、端末装置3010を介して対象物3007の全体が異なる方向から写るように複数回撮像され、対象物3007が撮像された複数の画像データが生成される(T3001)。ここでは、図18及び図19にそれぞれ示すような、正面及び側面の写真が複数枚撮影される。このような正面及び側面の写真は端末装置3010のステレオカメラ機能をオンにして撮影するのがよい。 First, the entire object 3007 is imaged a plurality of times via the terminal device 3010 so as to be captured from different directions, and a plurality of image data in which the object 3007 is imaged is generated (T3001). Here, a plurality of front and side photographs as shown in FIGS. 18 and 19, respectively, are taken. Such front and side photographs should be taken with the stereo camera function of the terminal device 3010 turned on.

次に、ユーザ3005により端末装置3010に、対象物3007の属性を示す属性データが入力される(T3002)。ここでは、属性データとして、対象物3007の全長データ・重量データ・経時データ(年齢等を含む。)等が入力される。そして、これらの複数の画像データ及び属性データが端末装置3010から寸法データ算出装置3020に送信される。 Next, the user 3005 inputs attribute data indicating the attributes of the object 3007 to the terminal device 3010 (T3002). Here, as the attribute data, the total length data, weight data, time-lapse data (including age, etc.) of the object 3007 and the like are input. Then, these plurality of image data and attribute data are transmitted from the terminal device 3010 to the dimension data calculation device 3020.

寸法データ算出装置3020は、端末装置3010から複数の画像データ及び属性データを受信すると、これらのデータを用いて対象物3007の各部分の寸法データを算出する(T3003)。なお、端末装置3010には、設定に応じて、寸法データが画面に表示される。そして、製品製造装置3030が、寸法データ算出装置3020により算出された寸法データに基づいて所望の製品3006を製造する(T3004)。 When the dimensional data calculation device 3020 receives a plurality of image data and attribute data from the terminal device 3010, the dimensional data calculation device 3020 calculates the dimensional data of each part of the object 3007 using these data (T3003). The terminal device 3010 displays dimensional data on the screen according to the setting. Then, the product manufacturing apparatus 3030 manufactures a desired product 3006 based on the dimensional data calculated by the dimensional data calculating apparatus 3020 (T3004).

(3−5−3)製品製造システムの特徴
以上説明したように、本実施形態に係る製品製造システム3001は、ユーザ3005が保有する端末装置3010と通信可能な寸法データ算出装置3020と、製品製造装置3030とを備える。
(3-5-3) Features of Product Manufacturing System As described above, the product manufacturing system 3001 according to the present embodiment includes a dimension data calculation device 3020 capable of communicating with the terminal device 3010 owned by the user 3005 and product manufacturing. The device 3030 is provided.

端末装置3010(撮影装置)は、対象物3007の画像を複数枚撮影する。寸法データ算出装置3020は、取得部3024A、抽出部3024B、変換部3024C、推定部3024D、及び算出部3024Eを備える。取得部3024Aは、対象物が撮影された画像データ及び対象物の全長データを取得する。抽出部3024Bは、画像データから対象物の形状を示す形状データを抽出する。変換部3024Cは形状データを全長データに基づいてシルエット画像に変換する。推定部3024Dは、サンプル対象物のシルエット画像とサンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジン3021Aを使用して、シルエット画像から所定個数の形状パラメータの値を推定する。算出部3024Eは、推定された所定個数の形状パラメータの値に基づいて、対象物の寸法データを算出する。製品製造装置3030は、算出部3024Eにより算出された寸法データを用いて製品3006を製造する。このような構成により、寸法データ算出装置3020が高精度に対象物3007の各部分を高精度に算出するので、対象物3007の形状に関連する所望の製品を提供できる。 The terminal device 3010 (photographing device) captures a plurality of images of the object 3007. The dimension data calculation device 3020 includes an acquisition unit 3024A, an extraction unit 3024B, a conversion unit 3024C, an estimation unit 3024D, and a calculation unit 3024E. The acquisition unit 3024A acquires the image data in which the object is photographed and the total length data of the object. The extraction unit 3024B extracts shape data indicating the shape of the object from the image data. The conversion unit 3024C converts the shape data into a silhouette image based on the total length data. The estimation unit 3024D uses the object engine 3021A that associates the silhouette image of the sample object with the value of a predetermined number of shape parameters associated with the sample object, and obtains the value of a predetermined number of shape parameters from the silhouette image. presume. The calculation unit 3024E calculates the dimensional data of the object based on the estimated values of a predetermined number of shape parameters. The product manufacturing apparatus 3030 manufactures the product 3006 using the dimensional data calculated by the calculation unit 3024E. With such a configuration, the dimensional data calculation device 3020 calculates each part of the object 3007 with high accuracy, so that a desired product related to the shape of the object 3007 can be provided.

例えば、製品製造システム3001により、心臓等の各種臓器の形状の測定から、臓器の模型を製造することができる。また、例えば、人のウェスト形状の測定から各種ヘルスケア製品等を製造することができる。また、例えば、人の形状から当該人のフィギュア製品を製造することができる。また、例えば、人の形状から当該人に適合する椅子等を製造することができる。また、例えば、車の形状から車のおもちゃを製造することができる。また、例えば、任意の風景画からジオラマ等を製造することができる。 For example, the product manufacturing system 3001 can manufacture a model of an organ by measuring the shape of various organs such as the heart. Further, for example, various healthcare products can be manufactured by measuring the waist shape of a person. Further, for example, a figure product of the person can be manufactured from the shape of the person. Further, for example, a chair or the like suitable for the person can be manufactured from the shape of the person. Also, for example, a car toy can be manufactured from the shape of a car. Further, for example, a diorama or the like can be manufactured from an arbitrary landscape painting.

なお、上記説明においては、寸法データ算出装置3020と製品製造装置3030とが別部材の装置として説明しているが、これらは一体として構成されるものでもよい。 In the above description, the dimension data calculation device 3020 and the product manufacturing device 3030 are described as separate member devices, but these may be configured as one.

<第4実施形態>
以下、既に説明した構成及び機能については略同一符号を付して説明を省略する。
(4−1)寸法データ算出装置の構成
図20は本実施形態に係る寸法データ算出システム4200の構成を示す模式図である。寸法データ算出システム4200は、寸法データ算出装置4120及び学習装置4125を備える。
<Fourth Embodiment>
Hereinafter, the configurations and functions already described will be designated by substantially the same reference numerals and description thereof will be omitted.
(4-1) Configuration of Dimension Data Calculation Device FIG. 20 is a schematic view showing the configuration of the dimension data calculation system 4200 according to the present embodiment. The dimensional data calculation system 4200 includes a dimensional data calculation device 4120 and a learning device 4125.

寸法データ算出装置4120は、記憶部4121、入出力部4122、通信部4123、及び処理部4124を備える。また、学習装置4125は、記憶部4126及び処理部4127を備える。なお、寸法データ算出装置4120及び学習装置4125は、LSI、ASIC、FPGA等を用いてハードウェアとして実現されてもよい。 The dimensional data calculation device 4120 includes a storage unit 4121, an input / output unit 4122, a communication unit 4123, and a processing unit 4124. Further, the learning device 4125 includes a storage unit 4126 and a processing unit 4127. The dimension data calculation device 4120 and the learning device 4125 may be realized as hardware by using an LSI, an ASIC, an FPGA, or the like.

記憶部4121,4126は、何れも各種情報を記憶するものであり、メモリ及びハードディスク等の任意の記憶装置により実現される。例えば、記憶部4121は、処理部4124において寸法データ算出に関する情報処理を実行するために、対象物エンジン4121Aを含む各種データ、プログラム、情報等を格納する。また、記憶部4126は、対象物エンジン4121Aを生成するために、学習段階で利用される訓練データを格納する。 The storage units 4121 and 4126 all store various types of information, and are realized by any storage device such as a memory and a hard disk. For example, the storage unit 4121 stores various data, programs, information, and the like including the object engine 4121A in order to execute information processing related to the calculation of dimensional data in the processing unit 4124. In addition, the storage unit 4126 stores training data used in the learning stage in order to generate the object engine 4121A.

入出力部4122は、前述の入出力部3022と同様の構成及び機能を有するものである。また、通信部4123は、前述の通信部3023と同様の構成及び機能を有するものである。 The input / output unit 4122 has the same configuration and function as the above-mentioned input / output unit 3022. Further, the communication unit 4123 has the same configuration and function as the communication unit 3023 described above.

処理部4124は、コンピュータのCPU,GPU等に、記憶部4121に記憶されたプログラムが読み込まれることにより、取得部4124A、推定部4124D、及び算出部4124Eとして機能する。同様に、処理部4127は、コンピュータのCPU,GPU等に、記憶部4126に記憶されたプログラムが読み込まれることにより、前処理部4127A及び学習部4127Bとして機能する。 The processing unit 4124 functions as the acquisition unit 4124A, the estimation unit 4124D, and the calculation unit 4124E by reading the program stored in the storage unit 4121 into the CPU, GPU, or the like of the computer. Similarly, the processing unit 4127 functions as the preprocessing unit 4127A and the learning unit 4127B by reading the program stored in the storage unit 4126 into the CPU, GPU, or the like of the computer.

寸法データ算出装置4120の処理部4124において、取得部4124Aは、対象物の全長データ、重量データ、経時データ(年齢等を含む。)とのうちの少なくともいずれかを含む属性データを取得する。本実施形態では、取得部4124Aが、属性データを推定部4124Dに入力するための受付部としても機能することになる。 In the processing unit 4124 of the dimension data calculation device 4120, the acquisition unit 4124A acquires the attribute data including at least one of the total length data, the weight data, and the time-lapse data (including age) of the object. In the present embodiment, the acquisition unit 4124A also functions as a reception unit for inputting attribute data to the estimation unit 4124D.

推定部4124Dは、属性データから所定個数の形状パラメータの値を推定する。推定には、対象物エンジン4121Aが使用される。推定部4124Dで推定された対象物の形状パラメータの値は、後述のように、対象物が有する任意の部位に関連する寸法データに関連付けることができる。 The estimation unit 4124D estimates the values of a predetermined number of shape parameters from the attribute data. The object engine 4121A is used for the estimation. The value of the shape parameter of the object estimated by the estimation unit 4124D can be associated with the dimensional data related to any part of the object, as will be described later.

算出部4124Eは、推定部4124Dによって推定された対象物の形状パラメータの値から、対象物の寸法データを算出する。具体的には、算出部4124Eは、推定部4124Dで推定された対象物の形状パラメータの値から、対象物における複数の頂点の3次元データを構成し、更に、当該3次元データに基づいて対象物における任意の2つの頂点の間の寸法データを算出する。 The calculation unit 4124E calculates the dimensional data of the object from the value of the shape parameter of the object estimated by the estimation unit 4124D. Specifically, the calculation unit 4124E constitutes three-dimensional data of a plurality of vertices in the object from the values of the shape parameters of the object estimated by the estimation unit 4124D, and further, the object is based on the three-dimensional data. Calculate dimensional data between any two vertices in an object.

学習装置4125の処理部4127において、前処理部4127Aは、学習のための各種前処理を実施する。特に、前処理部4127Aは、サンプル対象物の3次元データを次元削減により特徴抽出することを通じて、所定個数の形状パラメータを特定する。サンプル対象物の形状パラメータの値、及び対応する属性データは、訓練データとして予め記憶部4126に格納されている。 In the processing unit 4127 of the learning device 4125, the preprocessing unit 4127A carries out various preprocessing for learning. In particular, the preprocessing unit 4127A specifies a predetermined number of shape parameters by extracting features of the three-dimensional data of the sample object by dimensionality reduction. The value of the shape parameter of the sample object and the corresponding attribute data are stored in advance in the storage unit 4126 as training data.

なお、サンプル対象物の3次元データとして、対応する属性データ(全長データ、重量データ、経時データ(年齢等を含む。))が用意されているとする。対応する属性データは、訓練データとして記憶部4126に格納される。 It is assumed that corresponding attribute data (total length data, weight data, time-dependent data (including age, etc.)) is prepared as three-dimensional data of the sample object. The corresponding attribute data is stored in the storage unit 4126 as training data.

学習部4127Bは、サンプル対象物の形状パラメータの値と、対応する属性データとの関係を関連付けるように学習する。学習の結果、対象物エンジン4121Aが生成される。生成された対象物エンジン4121Aは、電子ファイルの形態で保持できる。寸法データ算出装置4120で対象物の寸法データを算出する際には、対象物エンジン4121Aは、記憶部4121に格納され推定部4124Dによって参照される。 The learning unit 4127B learns to associate the value of the shape parameter of the sample object with the corresponding attribute data. As a result of learning, the object engine 4121A is generated. The generated object engine 4121A can be held in the form of an electronic file. When the dimensional data calculation device 4120 calculates the dimensional data of the object, the object engine 4121A is stored in the storage unit 4121 and referred to by the estimation unit 4124D.

(4−2)寸法データ算出システムの動作
図21及び図22を参照して、図20の寸法データ算出システム4200の動作を説明する。図21は、学習装置4125の動作(S4110)を示すフローチャートであり、ここでは、サンプル対象物データに基づいて対象物エンジン4121Aを生成する。図22は寸法データ算出装置4120の動作を示すフローチャートであり、ここでは、対象物の画像データに基づいて対象物の寸法データを算出する。
(4-2) Operation of Dimension Data Calculation System The operation of the dimensional data calculation system 4200 of FIG. 20 will be described with reference to FIGS. 21 and 22. FIG. 21 is a flowchart showing the operation (S4110) of the learning device 4125, and here, the object engine 4121A is generated based on the sample object data. FIG. 22 is a flowchart showing the operation of the dimension data calculation device 4120, and here, the dimension data of the object is calculated based on the image data of the object.

(4−2−1)学習装置の動作
最初に、サンプル対象物のデータが準備され、記憶部4126に格納される(S4111)。一例では、準備されるデータは、400個のサンプル対象物のデータであり、サンプル対象物ごとに準備される5,000個の3次元データと、サンプル対象物ごとに準備される属性データとを含む。3次元データには、サンプル対象物が有する頂点の3次元座標データが含まれる。また、3次元データには、3次元物体を構成する各メッシュの頂点情報及び各頂点の法線方向等のメッシュ・データが含まれてもよい。
(4-2-1) Operation of Learning Device First, the data of the sample object is prepared and stored in the storage unit 4126 (S4111). In one example, the data to be prepared is the data of 400 sample objects, and 5,000 3D data prepared for each sample object and attribute data prepared for each sample object. Including. The three-dimensional data includes three-dimensional coordinate data of the vertices of the sample object. Further, the three-dimensional data may include the vertex information of each mesh constituting the three-dimensional object and the mesh data such as the normal direction of each vertex.

また、第1実施形態と同様、サンプル対象物の3次元データは、頂点番号と共に部位の情報が関連付けられている。 Further, as in the first embodiment, the three-dimensional data of the sample object is associated with the information of the part together with the vertex number.

続いて、前処理部4127Aは、次元削減により、所定個数(次元)の形状パラメータへの特徴変換を行う(S4112)。この特徴変換処理も第1実施形態と同様である。前述の例では、主成分分析に係る射影行列を用いた行列演算の結果、400個のサンプル対象物がそれぞれ有する15,000次元(5,000×3)のデータは、例えば30次元の主成分の形状パラメータΛに特徴変換される。 Subsequently, the preprocessing unit 4127A performs feature conversion into a predetermined number (dimensions) of shape parameters by reducing the dimensions (S4112). This feature conversion process is also the same as that of the first embodiment. In the above example, as a result of the matrix operation using the projection matrix related to the principal component analysis, the 15,000-dimensional (5,000 × 3) data possessed by each of the 400 sample objects is, for example, a 30-dimensional principal component. The feature is converted to the shape parameter Λ of.

そして、学習部4127Bが、S4111で準備された複数のサンプル対象物の属性データと、S4112で得た複数の形状パラメータのデータ・セットとの組を訓練データに用いて、両者の関係を機械学習する(S4115)。 Then, the learning unit 4127B uses a set of the attribute data of the plurality of sample objects prepared in S4111 and the data set of the plurality of shape parameters obtained in S4112 as training data, and machine-learns the relationship between the two. (S4115).

具体的には、学習部4027Bは、対象物の属性データから、変換属性データYを求める。変換属性データYの要素yと形状パラメータΛの要素λとを関連づける変換行列Zの要素をzrmと表記する。変換行列Zは、〔s行、n列〕からなる行列である。また、記号mは、1≦m≦nであり、前述の例ではnは形状パラメータΛの次元数である30である。記号rは、1≦r≦sであり、sは変換属性データYから得られる演算に用いられる要素の数である。 Specifically, the learning unit 4027B obtains the conversion attribute data Y from the attribute data of the object. The element of the transformation matrix Z that associates the element y r of the transformation attribute data Y with the element λ m of the shape parameter Λ is expressed as z rm . The transformation matrix Z is a matrix consisting of [s rows, n columns]. Further, the symbol m is 1 ≦ m ≦ n, and in the above example, n is 30 which is the number of dimensions of the shape parameter Λ. The symbol r is 1 ≦ r ≦ s, and s is the number of elements used in the calculation obtained from the conversion attribute data Y.

例えば、対象物の属性データが全長データh、重量データw、及び経時データaからなるものと想定する。つまり、属性データは、(h,w,a)の要素のセットである。この場合、学習部4027Bは、対象物の属性データの各要素(h,w,a)を2乗した値(二次項ともいう。)と、各要素を掛け合わせた値(相互作用項ともいう。)と、各要素自体の値(一次項ともいう。)とを求める。 For example, it is assumed that the attribute data of the object is composed of the total length data h, the weight data w, and the time data a. That is, the attribute data is a set of elements (h, w, a). In this case, the learning unit 4027B uses the squared value (also referred to as a quadratic term) of each element (h, w, a) of the attribute data of the object and the multiplied value of each element (also referred to as an interaction term). .) And the value of each element itself (also called the primary term).

その結果、次の9個の要素を有する変換属性データYが得られる。
As a result, the conversion attribute data Y having the following nine elements is obtained.

次に、学習部4027Bは、400個のサンプル対象物に関連付けられた属性データから得られる変換属性データYと、サンプル対象物の3次元データから得られた形状パラメータΛとの組を回帰分析することにより、次に示すような、〔9行、30列〕からなる変換行列Zを求める。 Next, the learning unit 4027B regresses the pair of the transformation attribute data Y obtained from the attribute data associated with the 400 sample objects and the shape parameter Λ obtained from the three-dimensional data of the sample objects. As a result, the transformation matrix Z consisting of [9 rows, 30 columns] as shown below is obtained.

このようにして求められた変換行列Zのデータは、対象物エンジン4121Aとして記憶部4026に記憶される。 The data of the transformation matrix Z obtained in this way is stored in the storage unit 4026 as the object engine 4121A.

(4−2−2)寸法データ算出装置の動作
寸法データ算出装置4120は、学習装置4125で生成された対象物エンジン4121Aの電子ファイル、及び学習装置4125で得た主成分分析の射影情報を記憶部4121に格納して、対象物の寸法データ算出に使用する。
(4-2-2) Operation of Dimension Data Calculator The Dimension Data Calculator 4120 stores the electronic file of the object engine 4121A generated by the learning device 4125 and the projection information of the principal component analysis obtained by the learning device 4125. It is stored in the unit 4121 and used for calculating the dimensional data of the object.

最初に、取得部4124Aは、入出力部4122を通じて、対象物の属性データを取得する(S4121)。これにより、対象物の属性データを受け付ける。次いで、予め記憶部4121に格納された対象物エンジン4121Aを使用して、推定部4124Dは、受け付けた属性データから対象物の形状パラメータの値を推定する(S4124)。 First, the acquisition unit 4124A acquires the attribute data of the object through the input / output unit 4122 (S4121). As a result, the attribute data of the object is accepted. Next, using the object engine 4121A previously stored in the storage unit 4121, the estimation unit 4124D estimates the value of the shape parameter of the object from the received attribute data (S4124).

例えば、対象物の属性データが全長データh、重量データw、及び経時データaからなるものと想定する。つまり、属性データは、(h,w,a)の要素のセットである。S4124では、上述したように、推定部4124Dは、対象物の属性データの各要素(h,w,a)を2乗した値と、各要素を掛け合わせた値と、各要素自体の値とからなる変換属性データYを得る。 For example, it is assumed that the attribute data of the object is composed of the total length data h, the weight data w, and the time data a. That is, the attribute data is a set of elements (h, w, a). In S4124, as described above, the estimation unit 4124D includes the squared value of each element (h, w, a) of the attribute data of the object, the product of each element, and the value of each element itself. Obtain the conversion attribute data Y consisting of.

最後に、算出部4124Eは、対象物の形状パラメータの値に基づいて、対象物が有する部位に関連する寸法データを算出する(S4125)。具体的には、取得部4124Aが取得した対象物の属性データから、変換属性データYを算出する。そして、その変換属性データYに上述した変換行列Zを掛け合わせることで形状パラメータΛを算出する。この後は、第3実施形態におけるもの(S3025)と同様に、3次元データから3次元物体を仮想的に構成し、3次元物体上の曲面に沿って2つの頂点の間の寸法データを算出する。なお、立体的な距離の計算には、3次元物体を構成する各メッシュの頂点情報及び各頂点の法線方向等のメッシュ・データを用いることができる。 Finally, the calculation unit 4124E calculates the dimensional data related to the portion of the object based on the value of the shape parameter of the object (S4125). Specifically, the conversion attribute data Y is calculated from the attribute data of the object acquired by the acquisition unit 4124A. Then, the shape parameter Λ is calculated by multiplying the transformation attribute data Y by the transformation matrix Z described above. After that, as in the case of the third embodiment (S3025), the 3D object is virtually constructed from the 3D data, and the dimensional data between the two vertices is calculated along the curved surface on the 3D object. To do. For the calculation of the three-dimensional distance, the vertex information of each mesh constituting the three-dimensional object and the mesh data such as the normal direction of each vertex can be used.

このように、本実施形態の寸法データ算出装置4120は、対象物エンジン4121Aを使用することにより、対象物の属性データから所定個数の形状パラメータの値を高精度に推定することができる。第3実施形態とは異なり、対象物の画像入力の必要がなく、かつ図13のS3022(形状データの抽出処理)及びS3023(リスケール処理)を必要としないので、効率的である。 As described above, the dimension data calculation device 4120 of the present embodiment can estimate the values of a predetermined number of shape parameters from the attribute data of the object with high accuracy by using the object engine 4121A. Unlike the third embodiment, there is no need to input an image of the object, and S3022 (shape data extraction process) and S3023 (rescale process) of FIG. 13 are not required, which is efficient.

また、高精度に推定された形状パラメータの値から、対象物の3次元データを高精度に復元することができるので、特定部位のみならず任意の2つの頂点間を採寸対象箇所として、高精度に算出することができる。特に、算出される2つの頂点の間の寸法データは、3次元データから構成される3次元物体に基づいて、立体的な形状に沿って算出されるので、高精度である。 In addition, since the three-dimensional data of the object can be restored with high accuracy from the values of the shape parameters estimated with high accuracy, the measurement target location is not only the specific part but also between any two vertices with high accuracy. Can be calculated. In particular, the calculated dimensional data between the two vertices is highly accurate because it is calculated along the three-dimensional shape based on the three-dimensional object composed of the three-dimensional data.

(4−3)寸法データ算出システムの特徴
以上説明したように、本実施形態に係る寸法データ算出システム4200は、寸法データ算出装置4120及び学習装置4125を備える。寸法データ算出装置4120の一部として構成される情報処理装置は、取得部(受付部)4124A、推定部4124D、及び算出部4124Eを備える。取得部(受付部)4124Aは、対象物の属性データを受け付ける。推定部4124Dは、サンプル対象物の属性データと、サンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジン4121Aを使用して、受け付けた属性データから対象物の形状パラメータの値を推定する。そして、推定された対象物の形状パラメータの値が、対象物が有する任意の部位に関連する寸法データに関連付けられる。
(4-3) Features of Dimension Data Calculation System As described above, the dimensional data calculation system 4200 according to the present embodiment includes a dimensional data calculation device 4120 and a learning device 4125. The information processing device configured as a part of the dimension data calculation device 4120 includes an acquisition unit (reception unit) 4124A, an estimation unit 4124D, and a calculation unit 4124E. The acquisition unit (reception unit) 4124A receives the attribute data of the object. The estimation unit 4124D uses the object engine 4121A that associates the attribute data of the sample object with the values of a predetermined number of shape parameters associated with the sample object, and uses the object engine 4121A to obtain the shape parameters of the object from the received attribute data. Estimate the value of. Then, the value of the estimated shape parameter of the object is associated with the dimensional data related to any part of the object.

したがって、寸法データ算出装置4120は、予め作成済みの対象物エンジン4121Aを使用することにより、属性データから所定個数の形状パラメータの値を効率的に推定することができる。また、推定される形状パラメータの値は高精度である。また、高精度に推定された形状パラメータの値を用いることで、対象物の任意の部位に関連するデータを効率的且つ高精度で算出することができる。このように、寸法データ算出装置4120によれば、対象物について算出される寸法データを効率的且つ高精度で提供することができる。 Therefore, the dimension data calculation device 4120 can efficiently estimate the values of a predetermined number of shape parameters from the attribute data by using the object engine 4121A created in advance. In addition, the estimated shape parameter values are highly accurate. Further, by using the value of the shape parameter estimated with high accuracy, it is possible to efficiently and accurately calculate the data related to an arbitrary part of the object. As described above, according to the dimensional data calculation device 4120, the dimensional data calculated for the object can be provided efficiently and with high accuracy.

(4−4)製品製造システムへの適用
図23は本実施形態に係る製品製造システム4001Sの概念を示す模式図である。本実施形態に係る寸法データ算出装置4120も、第3実施形態に係る寸法データ算出装置3020と同様に、製品製造システム4001Sに適用することが可能である。
(4-4) Application to Product Manufacturing System FIG. 23 is a schematic diagram showing the concept of the product manufacturing system 4001S according to the present embodiment. The dimensional data calculation device 4120 according to the present embodiment can also be applied to the product manufacturing system 4001S in the same manner as the dimensional data calculation device 3020 according to the third embodiment.

本実施形態に係る端末装置4010Sは、対象物4007の属性を示す属性データの入力を受け付けるものであればよい。「属性」としては、対象物1007の全長・重量・生成からの経過時間(年齢を含む)等が挙げられる。 The terminal device 4010S according to the present embodiment may be any as long as it accepts the input of attribute data indicating the attributes of the object 4007. Examples of the "attribute" include the total length, weight, elapsed time (including age), and the like of the object 1007.

また、前述のように、寸法データ算出装置4120の処理部4124は、取得部4124A、推定部4124D、及び算出部4124Eとして機能する。算出部4124Eは、推定部4124Dで得られた対象物の形状パラメータの値に基づいて、対象物が有する部位に関連する寸法データを算出する。 Further, as described above, the processing unit 4124 of the dimension data calculation device 4120 functions as the acquisition unit 4124A, the estimation unit 4124D, and the calculation unit 4124E. The calculation unit 4124E calculates the dimensional data related to the portion of the object based on the value of the shape parameter of the object obtained by the estimation unit 4124D.

製品製造システム4001Sでは、寸法データ算出装置4120が効率的且つ高精度に対象物1007の寸法データを算出するので、対象物1007の形状に関連する所望の製品を提供できる。その他、第4実施形態に係る製品製造システム4001Sは、第3実施形態の製品製造システム3001と同様の効果を発揮することができる。 In the product manufacturing system 4001S, since the dimension data calculation device 4120 efficiently and highly accurately calculates the dimension data of the object 1007, it is possible to provide a desired product related to the shape of the object 1007. In addition, the product manufacturing system 4001S according to the fourth embodiment can exhibit the same effect as the product manufacturing system 3001 of the third embodiment.

<他の実施形態>
本開示は、上記各実施形態そのままに限定されるものではない。本開示は、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できるものである。また、本開示は、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の開示を形成できるものである。例えば、実施形態に示される全構成要素から幾つかの構成要素は削除してもよいものである。さらに、異なる実施形態に構成要素を適宜組み合わせてもよいものである。
<Other embodiments>
The present disclosure is not limited to each of the above embodiments as it is. In the present disclosure, the components can be modified and embodied without departing from the gist at the implementation stage. In addition, the present disclosure can form various disclosures by appropriately combining a plurality of components disclosed in each of the above embodiments. For example, some components may be removed from all the components shown in the embodiments. Further, the components may be appropriately combined in different embodiments.

1001 製品製造システム
1010 端末装置
1020 寸法データ算出装置
1021 記憶部
1022 入出力部
1023 通信部
1024 処理部
1024A 取得部
1024B 抽出部
1024C 変換部
1024D 算出部
1030 製品製造装置
2001S 製品製造システム
2120 寸法データ算出装置
2121 記憶部
2122 入出力部
2123 通信部
2124 処理部
2124A 取得部
2124D 算出部
3001 製品製造システム
3020 寸法データ算出装置
3021 記憶部
3022 入出力部
3023 通信部
3024 処理部
3024A 取得部
3024B 抽出部
3024C 変換部
3024D 推定部
3024E 算出部
3025 学習装置
3026 記憶部
3027 処理部
3027A 前処理部
3027B 学習部
3100 寸法データ算出システム
4001S 製品製造システム、
4120 寸法データ算出装置
4121 記憶部
4122 入出力部
4123 通信部
4124 処理部
4124A 取得部
4124D 推定部
4124E 算出部
4125 学習装置
4126 記憶部
4127 処理部
4127A 前処理部
4127B 学習部
4200 寸法データ算出システム
1001 Product manufacturing system 1010 Terminal device 1020 Dimension data calculation device 1021 Storage unit 1022 Input / output unit 1023 Communication unit 1024 Processing unit 1024A Acquisition unit 1024B Extraction unit 1024C Conversion unit 1024D Calculation unit 1030 Product manufacturing device 2001S Product manufacturing system 2120 Dimension data calculation device 2121 Storage unit 2122 Input / output unit 2123 Communication unit 2124 Processing unit 2124A Acquisition unit 2124D Calculation unit 3001 Product manufacturing system 3020 Dimension data calculation device 3021 Storage unit 3022 Input / output unit 3023 Communication unit 3024 Processing unit 3024A Acquisition unit 3024B Extraction unit 3024C Conversion unit 3024D Estimating unit 3024E Calculation unit 3025 Learning device 3026 Storage unit 3027 Processing unit 3027A Preprocessing unit 3027B Learning unit 3100 Dimension data calculation system 4001S Product manufacturing system,
4120 Dimension data calculation device 4121 Storage unit 4122 Input / output unit 4123 Communication unit 4124 Processing unit 4124A Acquisition unit 4124D Estimating unit 4124E Calculation unit 4125 Learning device 4126 Storage unit 4127 Processing unit 4127A Preprocessing unit 4127B Learning unit 4200 Dimension data calculation system

特開2017−018158号公報JP-A-2017-018158

Claims (5)

対象物が撮影された画像データ及び前記対象物の全長データを取得する取得部と、
前記画像データから前記対象物の形状を示す形状データを抽出する抽出部と、
前記形状データを前記全長データに基づいて変換する変換部と、
前記変換部により変換された形状データを用いて、前記対象物の各部分の寸法データを算出する算出部と、
を備える、寸法データ算出装置。
An acquisition unit that acquires the image data of the object and the total length data of the object,
An extraction unit that extracts shape data indicating the shape of the object from the image data,
A conversion unit that converts the shape data based on the total length data,
A calculation unit that calculates dimensional data of each part of the object using the shape data converted by the conversion unit, and a calculation unit.
A dimensional data calculation device including.
対象物の全長データと重量データと経時データとのうちの少なくともいずれかを含む属性データを取得する取得部と、
前記属性データを用いて、前記対象物の各部分の寸法データを算出する算出部と、
を備える、寸法データ算出装置。
An acquisition unit that acquires attribute data including at least one of the total length data, weight data, and temporal data of the object, and
A calculation unit that calculates dimensional data of each part of the object using the attribute data,
A dimensional data calculation device including.
対象物のシルエット画像を受け付ける受付部と、
サンプル対象物のシルエット画像と前記サンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジンを使用して、前記受け付けたシルエット画像から前記対象物の形状パラメータの値を推定する推定部と、
を備え、前記推定された対象物の形状パラメータの値が、前記対象物が有する任意の部位に関連する寸法データに関連付けられる、情報処理装置。
The reception desk that accepts silhouette images of objects and
Using an object engine that associates a silhouette image of a sample object with a predetermined number of shape parameter values associated with the sample object, the shape parameter values of the object are estimated from the received silhouette image. And the estimation part
An information processing apparatus comprising: The estimated value of the shape parameter of the object is associated with dimensional data associated with any part of the object.
対象物の属性データを受け付ける受付部と、
サンプル対象物の属性データと前記サンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジンを使用して、前記受け付けた属性データから前記対象物の形状パラメータの値を推定する推定部と、
を備え、前記推定された対象物の形状パラメータの値が、前記対象物が有する任意の部位に関連する寸法データに関連付けられる、情報処理装置。
The reception section that accepts the attribute data of the object and
The value of the shape parameter of the object is estimated from the received attribute data by using the object engine in which the attribute data of the sample object and the value of a predetermined number of shape parameters associated with the sample object are associated with each other. And the estimation part to do
An information processing apparatus comprising: The estimated value of the shape parameter of the object is associated with dimensional data associated with any part of the object.
対象物が撮影された画像データ及び前記対象物の全長データを取得する取得部と、
前記画像データから前記対象物の形状を示す形状データを抽出する抽出部と、
前記形状データを前記全長データに基づいてシルエット画像に変換する変換部と、
サンプル対象物のシルエット画像と前記サンプル対象物に関連付けられた所定個数の形状パラメータの値とを関連付けた対象物エンジンを使用して、前記シルエット画像から所定個数の形状パラメータの値を推定する推定部と、
前記推定された所定個数の形状パラメータの値に基づいて、前記対象物の寸法データを算出する算出部と、
を備える、寸法データ算出装置。

An acquisition unit that acquires the image data of the object and the total length data of the object,
An extraction unit that extracts shape data indicating the shape of the object from the image data,
A conversion unit that converts the shape data into a silhouette image based on the total length data,
An estimation unit that estimates the values of a predetermined number of shape parameters from the silhouette image using an object engine that associates the silhouette image of the sample object with the values of a predetermined number of shape parameters associated with the sample object. When,
A calculation unit that calculates dimensional data of the object based on the estimated values of a predetermined number of shape parameters, and
A dimensional data calculation device including.

JP2019113083A 2019-06-18 2019-06-18 Size data calculation device, program, method, product manufacturing device, and product manufacturing system Pending JP2020204575A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019113083A JP2020204575A (en) 2019-06-18 2019-06-18 Size data calculation device, program, method, product manufacturing device, and product manufacturing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019113083A JP2020204575A (en) 2019-06-18 2019-06-18 Size data calculation device, program, method, product manufacturing device, and product manufacturing system

Publications (1)

Publication Number Publication Date
JP2020204575A true JP2020204575A (en) 2020-12-24

Family

ID=73837878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019113083A Pending JP2020204575A (en) 2019-06-18 2019-06-18 Size data calculation device, program, method, product manufacturing device, and product manufacturing system

Country Status (1)

Country Link
JP (1) JP2020204575A (en)

Similar Documents

Publication Publication Date Title
JP6522060B2 (en) Object recognition device, classification tree learning device and operation method thereof
US10679046B1 (en) Machine learning systems and methods of estimating body shape from images
Chen et al. Tensor-based human body modeling
US11763603B2 (en) Physical activity quantification and monitoring
CN105144247B (en) The generation of the three dimensional representation of user
WO2020131970A1 (en) Methods and systems for automatic generation of massive training data sets from 3d models for training deep learning networks
Tsoli et al. Model-based anthropometry: Predicting measurements from 3D human scans in multiple poses
WO2017141344A1 (en) Three-dimensional model generating system, three-dimensional model generating method, and program
CN113822982B (en) Human body three-dimensional model construction method and device, electronic equipment and storage medium
JP6579353B1 (en) Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus
JP6792273B2 (en) Dimension data calculation device, product manufacturing device, and silhouette image generation device
JP2010211732A (en) Object recognition device and method
CN113449637A (en) Method and device for estimating human skeleton posture by millimeter wave radar
Han et al. CHORUS: Learning Canonicalized 3D Human-Object Spatial Relations from Unbounded Synthesized Images
CN110543845A (en) Face cascade regression model training method and reconstruction method for three-dimensional face
US11922649B2 (en) Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus
JP2020204575A (en) Size data calculation device, program, method, product manufacturing device, and product manufacturing system
JP2008171074A (en) Three-dimensional shape model generation device, three-dimensional shape model generation method, computer program, and three-dimensional model generation system
JP6593830B1 (en) Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus
Tejeda et al. A neural anthropometer learning from body dimensions computed on human 3D meshes
CN116310066A (en) Single-image three-dimensional human body morphology estimation method and application
JP5162512B2 (en) Multidimensional time series data analysis apparatus and multidimensional time series data analysis program
CN114863013A (en) Target object three-dimensional model reconstruction method
Chang et al. Seeing through the appearance: Body shape estimation using multi-view clothing images
JP7100842B2 (en) Model analysis device, model analysis method, and model analysis program