JP7365435B2 - Computer-implemented body measurement method - Google Patents

Computer-implemented body measurement method Download PDF

Info

Publication number
JP7365435B2
JP7365435B2 JP2022000630A JP2022000630A JP7365435B2 JP 7365435 B2 JP7365435 B2 JP 7365435B2 JP 2022000630 A JP2022000630 A JP 2022000630A JP 2022000630 A JP2022000630 A JP 2022000630A JP 7365435 B2 JP7365435 B2 JP 7365435B2
Authority
JP
Japan
Prior art keywords
image
subject
tone
photographed
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022000630A
Other languages
Japanese (ja)
Other versions
JP2023100154A (en
Inventor
泰輔 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Teijin Frontier Co Ltd
Original Assignee
Teijin Frontier Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Teijin Frontier Co Ltd filed Critical Teijin Frontier Co Ltd
Priority to JP2022000630A priority Critical patent/JP7365435B2/en
Publication of JP2023100154A publication Critical patent/JP2023100154A/en
Priority to JP2023150496A priority patent/JP2023166573A/en
Application granted granted Critical
Publication of JP7365435B2 publication Critical patent/JP7365435B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、コンピュータにより実行される身体採寸方法に関する。 The present invention relates to a computer-implemented body measurement method.

近年のコンピュータ技術の発展に伴い、人物が撮影された映像又は画像から、該人物の身体寸法を自動的に採寸する試みがなされてきている。このような映像又は画像からの自動採寸技術は、特に、衣料品分野において、顧客の身体寸法をネットワーク越しに測定可能な方法として、注目されている。 With the recent development of computer technology, attempts have been made to automatically measure the body dimensions of a person from a video or image of the person. Such automatic measurement techniques from videos or images are attracting attention, particularly in the clothing field, as a method that can measure a customer's body dimensions over a network.

現在よく知られている自動採寸方法は、典型的には、対象者が撮影された二次元の映像又は画像から、畳み込みニューラルネットワーク(CNN)を使用して対象者の身体が表現された三次元モデルを生成し、この三次元モデルから寸法を測定することによって行われる。そのような自動採寸技術の例として、非特許文献1に開示されるBodyNetが広く知られている。BodyNetでは、二次元の映像又は画像内に撮影されている対象者に対して骨格推定を行った後、推定された骨格に肉付け(スキニング)を行うことによって三次元モデルを生成している。 Currently well-known automatic measurement methods typically convert a two-dimensional video or image of the subject into a three-dimensional representation of the subject's body using a convolutional neural network (CNN). This is done by creating a model and measuring dimensions from this three-dimensional model. As an example of such automatic measurement technology, BodyNet disclosed in Non-Patent Document 1 is widely known. In BodyNet, a three-dimensional model is generated by estimating the skeleton of a subject photographed in a two-dimensional video or image and then fleshing out (skinning) the estimated skeleton.

一方、自動採寸技術の他の例として、非特許文献2に開示されるHS-Netsもまた知られている。HS-Netsでは、BodyNetのような骨格推定や肉付けを行うのではなく、対象者が所定の姿勢及び向きで撮影された複数の二次元の画像から、三次元モデルを直接生成する。この方法では、ベースとなる二次元の画像の撮影状態が指定されるが、特許文献1のBodyNetと比較して優れた精度で三次元モデルを生成できる。 On the other hand, as another example of automatic measurement technology, HS-Nets disclosed in Non-Patent Document 2 is also known. In HS-Nets, a three-dimensional model is directly generated from a plurality of two-dimensional images taken of a subject in a predetermined posture and orientation, rather than performing skeletal estimation or fleshing out as in BodyNet. In this method, the shooting state of a two-dimensional image serving as a base is specified, but a three-dimensional model can be generated with superior accuracy compared to BodyNet of Patent Document 1.

Gul Varol, et al.,“BodyNet: Volumetric Inference of 3D Human Body Shapes”,ECCV 2018,arXiv:1804.04875 [cs.CV],2018年4月13日Gul Varol, et al., “BodyNet: Volumetric Inference of 3D Human Body Shapes”, ECCV 2018, arXiv:1804.04875 [cs.CV], April 13, 2018 Endri Dibra, et al.,“HS-Nets : Estimating Human Body Shape from Silhouettes with Convolutional Neural Networks”,IEEE Conf. Proc.,2016年,3DV,p.108-117.Endri Dibra, et al., “HS-Nets : Estimating Human Body Shape from Silhouettes with Convolutional Neural Networks”, IEEE Conf. Proc., 2016, 3DV, p.108-117.

しかしながら、非特許文献1及び2の方法により得られる三次元モデルは、身体の細かな特徴に対する正確な採寸データを得る目的で使用するには精度が不十分であり、これらの方法により得られる三次元モデルから、高精度な採寸データを得ることは難しいという問題がある。 However, the three-dimensional models obtained by the methods of Non-Patent Documents 1 and 2 are insufficiently accurate to be used for the purpose of obtaining accurate measurement data for detailed body features, and the three-dimensional models obtained by these methods are There is a problem in that it is difficult to obtain highly accurate measurement data from the original model.

また、非特許文献2のHS-Netsは、理想的な撮影画像を使用できれば、非特許文献1のBodyNetよりも比較的高い精度で三次元モデルを生成できるという利点があるものの、HS-Netsのための理想的な撮影画像を個人が撮影することは困難である。そのため、当該方法により高い精度の三次元モデルを得ることは困難であり、高い精度で採寸データが得られないという問題がある。 Furthermore, although HS-Nets in Non-Patent Document 2 has the advantage of being able to generate a three-dimensional model with relatively higher accuracy than the BodyNet in Non-Patent Document 1, if ideal captured images can be used, HS-Nets It is difficult for an individual to take an ideal photographic image. Therefore, it is difficult to obtain a three-dimensional model with high precision using this method, and there is a problem that measurement data cannot be obtained with high precision.

そのため、撮影された二次元画像に基づいて、より高い精度で採寸を行うことが可能な自動採寸方法が求められている。 Therefore, there is a need for an automatic measuring method that can measure with higher accuracy based on a photographed two-dimensional image.

本発明は、上記問題点に鑑み、対象者の身体特徴を高い精度で採寸する、コンピュータにより実行される身体採寸方法を提供することを課題とする。 SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide a computer-implemented body measurement method that measures a subject's body characteristics with high accuracy.

本発明の第一の態様に係る、対象者の身体を採寸するためのコンピュータにより実行される方法は、
前記対象者の身体に対応する身体領域と、前記身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する画像取得ステップと、
前記撮影画像のそれぞれを変換して、前記撮影画像の身体領域に対応する第1色で表された身体領域と、前記撮影画像の背景領域に対応する第2色が表された背景領域とを含む、前記撮影画像に対応するリファレンス二階調画像をそれぞれ生成する二値化ステップと、
前記リファレンス二階調画像のそれぞれを、モデル生成用画像として定義する定義ステップと、
前記対象者の三次元モデルを出力するモデル出力ステップであって、
体型テンプレートデータと畳み込みニューラルネットワークを使用して、前記モデル生成用画像から、前記対象者の三次元モデルを生成するサブステップと、
前記対象者の三次元モデルに基づいて、前記モデル生成用画像のそれぞれに対応する比較用二階調画像をそれぞれ生成するサブステップと、
前記リファレンス二階調画像の身体領域のそれぞれと、前記比較用二階調画像の身体領域のそれぞれとを比較して、両者の差分値を算出するサブステップと、
前記差分値が所定の閾値より大きい場合、かつ、本モデル出力ステップの実行回数が所定の回数より少ない場合、前記比較用二階調画像を修正し、前記モデル生成用画像を修正された前記比較用二階調画像に変更して、本モデル出力ステップを再度実行するサブステップと
を含む、モデル出力ステップと、
最後に算出された前記差分値が所定の閾値以下であった場合、最後に生成された前記対象者の三次元モデルに基づいて、前記対象者の身体特徴に関連する1つ以上の寸法を測定するステップと
を含む方法である。
A computer-implemented method for measuring the body of a subject according to the first aspect of the invention includes:
an image obtaining step of obtaining at least one captured image including a body region corresponding to the body of the subject and a background region corresponding to a region other than the body region;
Each of the photographed images is converted into a body region represented by a first color corresponding to the body region of the photographed image and a background region represented by a second color corresponding to the background region of the photographed image. a binarization step of generating reference two-tone images corresponding to the photographed images, respectively;
a definition step of defining each of the reference two-tone images as a model generation image;
a model output step of outputting a three-dimensional model of the subject,
a substep of generating a three-dimensional model of the subject from the model generation image using body shape template data and a convolutional neural network;
a substep of generating comparative two-tone images corresponding to each of the model generation images based on the three-dimensional model of the subject;
a substep of comparing each of the body regions of the reference two-tone image and each of the body regions of the comparison two-tone image to calculate a difference value between the two;
If the difference value is larger than a predetermined threshold, and if the number of executions of this model output step is less than a predetermined number of times, the comparison two-tone image is corrected, and the model generation image is changed to the corrected comparison image. A model output step, comprising: a substep of changing to a two-tone image and executing the model output step again;
If the last calculated difference value is less than or equal to a predetermined threshold, one or more dimensions related to the body characteristics of the subject are measured based on the last generated three-dimensional model of the subject. The method includes the steps of:

斯かる構成によれば、対象者の三次元モデルを出力するにあたって、三次元モデルから生成された比較用二階調画像と撮影画像に基づくリファレンス二階調画像との誤差が十分に小さい三次元モデルが得られるまで、三次元モデル生成のベースとなる二階調画像を修正しつつ三次元モデルの生成を繰り返す。これにより、対象者の身体が高い精度でモデリングされた三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 According to such a configuration, when outputting a three-dimensional model of a subject, a three-dimensional model with a sufficiently small error between a comparison two-tone image generated from the three-dimensional model and a reference two-tone image based on a photographed image is generated. The generation of the three-dimensional model is repeated while modifying the two-tone image that is the basis for generating the three-dimensional model. Thereby, the body characteristics of the subject can be measured with high precision based on the three-dimensional model in which the body of the subject is modeled with high precision.

本発明の第二の態様に係る、対象者の身体を採寸するためのコンピュータにより実行される方法は、
前記対象者の身体に対応する身体領域と、前記身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する画像取得ステップと、
前記撮影画像のそれぞれを変換して、前記撮影画像の身体領域に対応する第1色で表された身体領域と、前記撮影画像の背景領域に対応する第2色が表された背景領域とを含む、前記撮影画像と同数のリファレンス二階調画像を生成する二値化ステップと、
体型テンプレートデータと畳み込みニューラルネットワークを使用して、前記リファレンス二階調画像から、前記対象者の三次元モデルを生成するモデル出力ステップと、
を含み、
前記リファレンス二階調画像を生成するステップの前に、前記撮影画像から前記対象者の骨格を推定し、推定された骨格を用いて、前記撮影画像に含まれる前記身体領域の形状を補正するステップ、又は、
前記対象者の三次元モデルを生成するステップの前に、前記撮影画像又は前記リファレンス二階調画像から前記対象者の骨格を推定し、推定された骨格を用いて、前記リファレンス二階調画像に含まれる前記身体領域の形状を補正するステップ
をさらに含む方法である。
A computer-implemented method for measuring the body of a subject according to a second aspect of the invention includes:
an image obtaining step of obtaining at least one captured image including a body region corresponding to the body of the subject and a background region corresponding to a region other than the body region;
Each of the photographed images is converted into a body region represented by a first color corresponding to the body region of the photographed image and a background region represented by a second color corresponding to the background region of the photographed image. a binarization step of generating the same number of reference two-tone images as the captured images;
a model output step of generating a three-dimensional model of the subject from the reference two-tone image using body shape template data and a convolutional neural network;
including;
Before the step of generating the reference two-tone image, estimating the skeleton of the subject from the photographed image and correcting the shape of the body region included in the photographed image using the estimated skeleton; Or
Before the step of generating the three-dimensional model of the subject, the skeleton of the subject is estimated from the photographed image or the reference two-tone image, and the estimated skeleton is used to create a three-dimensional model of the subject included in the reference two-tone image. The method further includes the step of correcting the shape of the body region.

斯かる構成によれば、対象者の三次元モデルを生成するベースとなるリファレンス二階調画像を生成する際に、撮影画像又はその二階調画像に基づいて推定された対象者の骨格に基づいて、撮影画像を取得する際に生じ得る対象者の身体領域の歪みを補正し、三次元モデルの生成に適したリファレンス二階調画像を生成する。これにより、対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 According to such a configuration, when generating a reference two-tone image that is a base for generating a three-dimensional model of a subject, based on the captured image or the skeleton of the subject estimated based on the two-tone image, A reference two-tone image suitable for generating a three-dimensional model is generated by correcting distortion of the subject's body region that may occur when capturing a photographed image. Thereby, a three-dimensional model of the subject can be modeled with high precision, and based on such a three-dimensional model, the physical characteristics of the subject can be measured with high precision.

本発明の第三の態様に係る、対象者の身体を採寸するためのコンピュータにより実行される方法は、
前記対象者の身体に対応する身体領域と、前記身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する画像取得ステップと、
前記撮影画像のそれぞれを変換して、前記撮影画像の身体領域に対応する第1色で表された身体領域と、前記撮影画像の背景領域に対応する第2色が表された背景領域とを含む、前記撮影画像と同数のリファレンス二階調画像を生成する二値化ステップと、
体型テンプレートデータと畳み込みニューラルネットワークを使用して、前記リファレンス二階調画像から、前記対象者の三次元モデルを生成するモデル出力ステップと、
を含み、
前記体型テンプレートデータが、前記対象者の備える1つ以上の属性を備えた人物群より生成された体型テンプレートにより構成されている方法である。
A computer-implemented method for measuring the body of a subject according to a third aspect of the present invention includes:
an image obtaining step of obtaining at least one captured image including a body region corresponding to the body of the subject and a background region corresponding to a region other than the body region;
Each of the photographed images is converted into a body region represented by a first color corresponding to the body region of the photographed image and a background region represented by a second color corresponding to the background region of the photographed image. a binarization step of generating the same number of reference two-tone images as the captured images;
a model output step of generating a three-dimensional model of the subject from the reference two-tone image using body shape template data and a convolutional neural network;
including;
In this method, the body shape template data is composed of body shape templates generated from a group of people having one or more attributes of the subject.

斯かる構成によれば、対象者に近い人物群より生成された体型テンプレートにより構成された体型テンプレートデータを利用することにより、対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 According to such a configuration, a three-dimensional model of the target person can be modeled with high accuracy by using body template data composed of body shape templates generated from a group of people close to the target person. Based on a three-dimensional model, the physical characteristics of the subject can be measured with high accuracy.

本発明の対象者の身体を採寸するためのコンピュータにより実行される方法によれば、対象者の身体特徴を高い精度で採寸することができる。 According to the computer-implemented method for measuring a subject's body according to the present invention, the subject's physical characteristics can be measured with high accuracy.

図1は、本発明のコンピュータにより実行される身体採寸方法の一実施形態を示す。FIG. 1 shows one embodiment of the computer-implemented body measurement method of the present invention. 図2は、図1の身体採寸方法に含まれる、三次元モデル生成ステップの詳細を示す。FIG. 2 shows details of the three-dimensional model generation step included in the body measurement method of FIG. 1. 図3は、図1の身体採寸方法が実行されるコンピュータを含むシステムの一実施形態を示す。FIG. 3 illustrates one embodiment of a system including a computer in which the body measurement method of FIG. 1 is performed. 図4は、図3のシステムに含まれる、三次元モデル生成モジュールの詳細を示す。FIG. 4 shows details of the three-dimensional model generation module included in the system of FIG. 3. 図5は、撮影画像を取得する際に使用されるアプリケーション上に表示される撮影画面の例を示す。FIG. 5 shows an example of a photographing screen displayed on an application used when acquiring a photographed image.

以下、図面を参照して、本発明の対象者の身体を採寸するためのコンピュータにより実行される方法の実施形態について説明する。ただし、下記の実施形態は、単なる例示である。本発明は、下記の実施形態に何ら限定されない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a computer-implemented method for measuring the body of a subject according to the present invention will be described with reference to the drawings. However, the embodiments described below are merely illustrative. The present invention is not limited to the embodiments described below.

本発明の対象者の身体を採寸するためのコンピュータにより実行される方法は、
前記対象者の身体に対応する身体領域と、前記身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する画像取得ステップと、
前記撮影画像のそれぞれを変換して、前記撮影画像の身体領域に対応する第1色で表された身体領域と、前記撮影画像の背景領域に対応する第2色が表された背景領域とを含む、前記撮影画像に対応するリファレンス二階調画像をそれぞれ生成する二値化ステップと、
前記リファレンス二階調画像のそれぞれを、モデル生成用画像として定義する定義ステップと、
前記対象者の三次元モデルを出力するモデル出力ステップと、
前記対象者の三次元モデルに基づいて、前記対象者の身体特徴に関連する1つ以上の寸法を測定する測定ステップと、を含む。
The computer-implemented method for measuring the body of a subject of the present invention includes:
an image obtaining step of obtaining at least one captured image including a body region corresponding to the body of the subject and a background region corresponding to a region other than the body region;
Each of the photographed images is converted into a body region represented by a first color corresponding to the body region of the photographed image and a background region represented by a second color corresponding to the background region of the photographed image. a binarization step of generating reference two-tone images corresponding to the photographed images, respectively;
a definition step of defining each of the reference two-tone images as a model generation image;
a model output step of outputting a three-dimensional model of the subject;
measuring one or more dimensions associated with a physical characteristic of the subject based on the three-dimensional model of the subject.

本発明の方法の第1の特徴は、対象者の三次元モデルを出力するにあたって、三次元モデルから生成された比較用二階調画像と撮影画像に基づくリファレンス二階調画像との誤差が十分に小さい三次元モデルが得られるまで、必要に応じて三次元モデル生成のベースとなる二階調画像を修正しつつ三次元モデルの生成を繰り返すことにある。
具体的には、本発明の方法の第1の特徴は、
前記対象者の三次元モデルを出力するモデル出力ステップが、
体型テンプレートデータと畳み込みニューラルネットワークを使用して、前記モデル生成用画像から、前記対象者の三次元モデルを生成するサブステップと、
前記対象者の三次元モデルに基づいて、前記モデル生成用画像のそれぞれに対応する比較用二階調画像をそれぞれ生成するサブステップと、
前記リファレンス二階調画像の身体領域のそれぞれと、前記比較用二階調画像の身体領域のそれぞれとを比較して、両者の差分値を算出するサブステップと、
前記差分値が所定の閾値より大きい場合、かつ、本モデル出力ステップの実行回数が所定の回数より少ない場合、前記比較用二階調画像を修正し、前記モデル生成用画像を修正された前記比較用二階調画像に変更して、本モデル出力ステップを再度実行するサブステップと
を含み、
前記測定ステップにおいて使用される対象者の三次元モデルが、前記モデル出力ステップにおいて最後に出力された三次元モデルである。
The first feature of the method of the present invention is that when outputting a three-dimensional model of the subject, the error between the comparison two-tone image generated from the three-dimensional model and the reference two-tone image based on the photographed image is sufficiently small. The purpose is to repeat the generation of the three-dimensional model while modifying the two-tone image, which is the basis of the three-dimensional model generation, as necessary, until the three-dimensional model is obtained.
Specifically, the first feature of the method of the invention is:
a model output step of outputting a three-dimensional model of the subject;
a substep of generating a three-dimensional model of the subject from the model generation image using body shape template data and a convolutional neural network;
a substep of generating comparative two-tone images corresponding to each of the model generation images based on the three-dimensional model of the subject;
a substep of comparing each of the body regions of the reference two-tone image and each of the body regions of the comparison two-tone image to calculate a difference value between the two;
If the difference value is larger than a predetermined threshold, and if the number of executions of this model output step is less than a predetermined number of times, the comparison two-tone image is corrected, and the model generation image is changed to the corrected comparison image. and a substep of changing to a two-tone image and re-executing this model output step,
The three-dimensional model of the subject used in the measurement step is the three-dimensional model finally output in the model output step.

これにより、対象者の身体が高い精度でモデリングされた三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 Thereby, the body characteristics of the subject can be measured with high precision based on the three-dimensional model in which the body of the subject is modeled with high precision.

本発明の方法の第2の特徴は、撮影画像を取得する際に生じ得る対象者の身体領域の歪みを補正することである。
具体的には、本発明の方法の第2の特徴は、
前記二値化ステップの前に、前記撮影画像から前記対象者の骨格を推定し、推定された骨格を用いて、前記撮影画像に含まれる前記身体領域の形状を補正する撮影画像補正ステップ、又は、
前記定義ステップの前に、前記撮影画像又は前記リファレンス二階調画像から前記対象者の骨格を推定し、推定された骨格を用いて、前記リファレンス二階調画像に含まれる前記身体領域の形状を補正する二階調画像補正ステップを含む。
A second feature of the method of the present invention is to correct distortions of the subject's body region that may occur when capturing captured images.
Specifically, the second feature of the method of the invention is:
Before the binarization step, a photographed image correction step of estimating the skeleton of the subject from the photographed image and correcting the shape of the body region included in the photographed image using the estimated skeleton, or ,
Before the defining step, the skeleton of the subject is estimated from the photographed image or the reference two-tone image, and the shape of the body region included in the reference two-tone image is corrected using the estimated skeleton. It includes a two-tone image correction step.

これにより、対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 Thereby, a three-dimensional model of the subject can be modeled with high precision, and based on such a three-dimensional model, the physical characteristics of the subject can be measured with high precision.

本発明の方法の第3の特徴は、前記体型テンプレートデータが、前記対象者の備える1つ以上の属性を備えた人物群より生成された体型テンプレートにより構成されていることである。 A third feature of the method of the present invention is that the body shape template data is composed of body shape templates generated from a group of people having one or more attributes of the subject.

これにより、対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 Thereby, a three-dimensional model of the subject can be modeled with high precision, and based on such a three-dimensional model, the physical characteristics of the subject can be measured with high precision.

本発明の方法は、これらの第1~第3の特徴をそれぞれ単独で備えていてもよく、これらの特徴の任意の組み合わせを備えていてもよい。本発明の方法がこれらの第1~第3の特徴を複数組み合わせて備えている場合には、対象者の身体特徴をより高い精度で採寸することが可能になる。 The method of the present invention may have each of these first to third features alone, or may have any combination of these features. When the method of the present invention includes a combination of a plurality of these first to third characteristics, it becomes possible to measure the physical characteristics of the subject with higher accuracy.

図1は、本発明のコンピュータにより実行される身体採寸方法の実施形態である方法1を示す。本実施形態の方法は、上述の本発明の第1~第3の特徴を備えている。
方法1は、例えば、後述するコンピュータシステム3によって実行され得る。
FIG. 1 shows Method 1, which is an embodiment of the computer-implemented body measurement method of the present invention. The method of this embodiment has the first to third features of the present invention described above.
Method 1 can be executed, for example, by computer system 3, which will be described below.

本方法1では、まず、ステップ11において、対象者の身体に対応する身体領域と、身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する(画像取得ステップ)。 In this method 1, first, in step 11, at least one captured image including a body region corresponding to the subject's body and a background region corresponding to a region other than the body region is acquired (image acquisition step).

具体的には、本ステップ11では、後のモデル出力ステップ14にて行われるモデル生成のために要求される1つ以上の身体の向き及び姿勢について、それぞれに対応する撮影画像が取得される。本実施形態では、一般的に「Aポーズ」と呼ばれるニュートラルな姿勢の対象者を正面から撮影した撮影画像(正面撮影画像)と、該対象者を側面から撮影した撮影画像(側面撮影画像)とを含む、2つの撮影画像が取得される。 Specifically, in this step 11, photographed images corresponding to one or more body orientations and postures required for model generation to be performed in the later model output step 14 are acquired. In this embodiment, an image taken from the front of a subject in a neutral posture generally called "A pose" (frontal image), and an image taken from the side of the subject (side image) are used. Two captured images are acquired, including:

本ステップ11は、撮影に使用されるコンピュータが備えた、あるいは該コンピュータに接続されたカメラによって、対象者が撮影されることにより取得され得る。 This step 11 can be obtained by photographing the subject with a camera included in or connected to a computer used for photographing.

ここで、撮影に使用されるコンピュータ又はカメラが、撮影画像の歪みを補正する機能を有している場合には、その機能を使用して歪み補正された撮影画像を取得することが望ましい。
例えば、撮影に使用されるコンピュータ又はカメラが傾きセンサを備えている場合には、その傾きデータを使用して歪み処理を行ってもよい。例えば、被写体である対象者が撮影される際のカメラの傾きによって生じる身体領域の上下寸法の歪みが、傾きデータに基づいて補正され得る。
Here, if the computer or camera used for photographing has a function of correcting the distortion of the photographed image, it is desirable to use that function to obtain the photographed image with the distortion corrected.
For example, if a computer or camera used for photographing is equipped with a tilt sensor, distortion processing may be performed using the tilt data. For example, distortion in the vertical dimensions of a body region caused by the tilt of a camera when a subject is photographed can be corrected based on the tilt data.

また、撮影に使用されるコンピュータ又はカメラが深度センサを備えている場合には、撮影時に被写体の深度データを取得しておくことが好ましい。深度データに基づいて得られる奥行情報に基づいて、予め取得されていた対象者の身長等の身体情報に大きな誤差がないかを確認することができる。さらに、奥行情報は、後の二値化ステップ12において身体領域と背景領域とを区別する際に、両者の境界を高い精度で判別するためにも使用され得る。 Furthermore, if the computer or camera used for photographing is equipped with a depth sensor, it is preferable to acquire depth data of the subject at the time of photographing. Based on the depth information obtained based on the depth data, it is possible to check whether there are any large errors in the physical information such as the height of the subject that has been acquired in advance. Further, the depth information can also be used to accurately determine the boundary between the body region and the background region when distinguishing them in the subsequent binarization step 12.

次に、ステップ12において、撮影画像のそれぞれを変換して、撮影画像の身体領域に対応する第1色で表された身体領域と、撮影画像の背景領域に対応する第2色が表された背景領域とを含む、撮影画像に対応するリファレンス二階調画像をそれぞれ生成する(二値化ステップ)。 Next, in step 12, each of the photographed images is converted so that the body region is represented in a first color corresponding to the body region in the photographed image, and the second color is represented in a second color corresponding to the background region in the photographed image. Reference two-tone images corresponding to the photographed images, including the background region, are generated (binarization step).

本ステップ12において行われる撮影画像の二値化変換によって、生成された二階調画像内において、身体領域及び背景領域に含まれていたディテールが省略されると共に、身体領域と背景領域とが明確に区別されるようになる。このようにして生成された二階調画像では、対象者の身体に対応する身体領域が、背景領域から明確に分離されているため、後のモデル出力ステップ15にてモデル生成を行う際に、対象者の身体に対応する身体領域を認識し易くなる。
なお、本ステップ11によって得られた二階調画像は、後のモデル出力ステップ15において生成された三次元モデルの正確さを確認するためのリファレンス画像(リファレンス二諧調画像)として利用されることになる。
By the binarization conversion of the photographed image performed in step 12, details included in the body region and background region are omitted in the generated two-tone image, and the body region and background region are clearly distinguished. become distinct. In the two-tone image generated in this way, the body region corresponding to the subject's body is clearly separated from the background region. It becomes easier to recognize the body area corresponding to the person's body.
Note that the two-tone image obtained in this step 11 will be used as a reference image (reference two-tone image) for confirming the accuracy of the three-dimensional model generated in the later model output step 15. .

本ステップ12では、前述の画像取得ステップ11にて取得された1つ以上の撮影画像のそれぞれについて二値化変換を行い、それぞれに対応する二階調画像を生成する。本実施形態では、画像取得ステップ11にて取得された正面撮影画像と側面撮影画像とをそれぞれ二値化して、リファレンス正面二階調画像とリファレンス側面二階調画像とが生成される。 In this step 12, each of the one or more photographed images acquired in the image acquisition step 11 described above is subjected to binarization conversion to generate a corresponding two-tone image. In this embodiment, the front photographed image and the side photographed image acquired in the image acquisition step 11 are respectively binarized to generate a reference front two-tone image and a reference side two-tone image.

本ステップ12における撮影画像の二値化変換は、従来公知の任意の方法により実行され得る。そのような方法としては、大域コントラスト正規化(GCN)、セマンティックセグメンテーション、インスタンスセグメンテーション(例えば、DeepMask)等のディープラーニング技術を用いた二値化手法を採用することができる。これらの方法は、単独で採用されてもよく、複数組み合わせて採用されてもよい。 The binarization conversion of the captured image in step 12 may be performed by any conventionally known method. As such a method, a binarization method using deep learning techniques such as global contrast normalization (GCN), semantic segmentation, and instance segmentation (eg, DeepMask) can be adopted. These methods may be used alone or in combination.

リファレンス二諧調画像内において身体領域及び背景領域をそれぞれ表す第1色及び第2色は互いに異なる色であればよく、それらの領域の境界の区別が容易となる、色彩やコントラストが大きく異なる色であることが好ましい。通常、第1色及び第2色は、白及び黒から選択され、第1色が白かつ第2色が黒であってもよく、逆であってもよい。 The first and second colors representing the body region and the background region, respectively, in the reference two-tone image may be different from each other, and they may be colors with significantly different colors or contrasts that make it easy to distinguish the boundaries of these regions. It is preferable that there be. Typically, the first color and the second color are selected from white and black, and the first color may be white and the second color may be black, or vice versa.

次に、ステップ13において、撮影画像又はリファレンス二階調画像から対象者の骨格を推定し、推定された骨格を用いて、リファレンス二階調画像に含まれる身体領域の形状を補正する(二階調画像補正ステップ)。本ステップ13は、本発明の上記第2の特徴に対応する。 Next, in step 13, the subject's skeleton is estimated from the captured image or the reference two-tone image, and the estimated skeleton is used to correct the shape of the body region included in the reference two-tone image (two-tone image correction step). This step 13 corresponds to the second feature of the present invention.

具体的には、本ステップ13では、撮影画像又はリファレンス二階調画像に含まれる身体領域における対象者の骨格を推定し、推定された骨格に基づいて、後のモデル出力ステップ15にて行われるモデル生成に適した画像となるように、リファレンス二階調画像をそれぞれ補正する。
対象者の骨格の推定は、通常は二値化変換された後のリファレンス二階調画像に基づいて行われるが、対象者の骨格を十分な精度で推定できるのであれば、二値化変換される前の撮影画像に基づいて行われてもよい。
Specifically, in this step 13, the skeleton of the subject in the body region included in the photographed image or the reference two-tone image is estimated, and based on the estimated skeleton, the model to be performed in the later model output step 15 is Each reference two-tone image is corrected so that it becomes an image suitable for generation.
Estimation of the subject's skeleton is usually performed based on a reference two-tone image that has been subjected to binarization conversion, but if the subject's skeleton can be estimated with sufficient accuracy, it can be binarized. It may be performed based on a previously captured image.

対象者の骨格を推定する方法は、特に限定されず、OpenPose、PoseNet等の二次元骨格推定法や、三次元骨格推定法など、従来公知の任意の骨格推定方法を採用することができる。 The method for estimating the subject's skeleton is not particularly limited, and any conventionally known skeleton estimation method can be employed, such as a two-dimensional skeleton estimation method such as OpenPose or PoseNet, or a three-dimensional skeleton estimation method.

リファレンス二階調画像に含まれる身体領域の形状の補正は、例えば、身体領域の撮影画像又はリファレンス二諧調画像の身体領域に表される姿勢を、後のモデル出力ステップ15にて行われるモデル生成に適した姿勢となるよう補正することによって行われる。例えば、対象者の身体の歪み等の原因により、撮影される際に対象者がモデル生成に適した姿勢を取れず、身体領域に表される対象者の姿勢において、一方の肩が他方の肩よりも下がっていたり、首が曲がっていたりすることがある。このような場合に、推定された骨格に基づいて、モデル生成に適した姿勢を表す骨格となるようにリファレンス二諧調画像の身体領域を補正することが考えられる。 The shape of the body region included in the reference two-tone image can be corrected by, for example, correcting the captured image of the body region or the posture expressed in the body region of the reference two-tone image in model generation performed in the model output step 15 later. This is done by making corrections to achieve an appropriate posture. For example, due to distortion of the subject's body, the subject may not be able to take a posture suitable for model generation when being photographed, and in the subject's posture represented in the body area, one shoulder may overlap the other shoulder. The neck may be lower than normal, or the neck may be bent. In such a case, it is conceivable to correct the body region of the reference two-tone image based on the estimated skeleton so that the skeleton represents a posture suitable for model generation.

なお、本実施形態では、骨格の推定及びそれに続く歪み補正は、二階調画像補正ステップ13にてリファレンス二階調画像に対して行っているが、この二階調画像補正ステップ13に代えて又はこれに加えて、二値化する前の撮影画像に対して骨格の推定及びそれに続く歪み補正を行ってもよい。
具体的には、本実施形態の方法1は、二階調画像補正ステップ13に代えて又はこれに加えて、撮影画像から対象者の骨格を推定し、推定された骨格を用いて、撮影画像に含まれる身体領域の形状を補正するステップ13Aを含んでいてもよい(撮影画像補正ステップ)。この撮影画像補正ステップ13Aは、二値化ステップ12の後に行われる二階調画像補正ステップ13とは異なり、二値化ステップ12の前に行われる。
Note that in this embodiment, the skeleton estimation and subsequent distortion correction are performed on the reference two-tone image in the two-tone image correction step 13; however, in place of or in place of this two-tone image correction step 13, In addition, skeleton estimation and subsequent distortion correction may be performed on the captured image before it is binarized.
Specifically, in method 1 of the present embodiment, instead of or in addition to the two-tone image correction step 13, the skeleton of the subject is estimated from the photographed image, and the estimated skeleton is used to correct the photographed image. It may also include step 13A of correcting the shape of the included body region (photographed image correction step). This photographed image correction step 13A is carried out before the binarization step 12, unlike the two-tone image correction step 13 which is carried out after the binarization step 12.

次に、ステップ14において、リファレンス二階調画像のそれぞれを、モデル生成用画像として定義する(定義ステップ)。 Next, in step 14, each of the reference two-tone images is defined as a model generation image (definition step).

本ステップ14では、次のモデル出力ステップ15において対象者の三次元モデルを最初に生成する際に使用される画像として、二諧調画像補正ステップ13にて補正されたリファレンス二階調画像のそれぞれを、最初のモデル生成用画像として定義している。本実施形態では、モデル生成用正面画像とモデル生成用側面画像の2つが生成される。 In this step 14, each of the reference two-tone images corrected in the two-tone image correction step 13 is used as an image to be used when first generating a three-dimensional model of the subject in the next model output step 15. It is defined as the image for initial model generation. In this embodiment, two images, a front image for model generation and a side image for model generation, are generated.

次に、ステップ15において、対象者の三次元モデルを出力する(モデル出力ステップ)。 Next, in step 15, a three-dimensional model of the subject is output (model output step).

上記の通り、本実施形態は、本ステップ15において、三次元モデルから生成された比較用二階調画像と撮影画像に基づくリファレンス二階調画像との誤差が十分に小さい三次元モデルが得られるまで、三次元モデル生成のベースとなる二階調画像を修正しつつ三次元モデルの生成を繰り返す、本発明の上記第1の特徴を備えている。
本ステップ15は、図2に示されるサブステップ21~24を含み、必要に応じてこれらを繰り返すことによって、高い精度の三次元モデルを生成することができる。これらのサブステップ21~24について、以下に詳細に説明する。
As described above, in this embodiment, in this step 15, until a three-dimensional model is obtained in which the error between the comparison two-tone image generated from the three-dimensional model and the reference two-tone image based on the photographed image is sufficiently small, The first feature of the present invention is that the three-dimensional model is repeatedly generated while modifying the two-tone image that is the basis for three-dimensional model generation.
This step 15 includes substeps 21 to 24 shown in FIG. 2, and by repeating these as necessary, a highly accurate three-dimensional model can be generated. These substeps 21 to 24 will be explained in detail below.

本実施形態のモデル出力ステップ15では、まず、サブステップ21において、体型テンプレートデータと畳み込みニューラルネットワークを使用して、二次元画像であるモデル生成用画像から、対象者の三次元モデルを生成する(モデル生成サブステップ)。 In the model output step 15 of this embodiment, first, in the sub-step 21, a three-dimensional model of the subject is generated from the model generation image, which is a two-dimensional image, using body template data and a convolutional neural network ( model generation substep).

本サブステップ21では、体型テンプレートデータと畳み込みニューラルネットワークを使用した三次元モデル生成方法として、例えば、上記特許文献2に記載されるHS-Netsを使用することができる。HS-Netsを使用した三次元モデリングでは、体型テンプレートデータに基づいて、正面及び側面から撮影された対象者に対応する身体領域をそれぞれ含むモデル生成用正面画像及びモデル生成用側面画像から、それらの画像に含まれる対象者の向き及び姿勢に対応する三次元モデルを、それぞれ直接生成することができる。 In this sub-step 21, for example, HS-Nets described in Patent Document 2 can be used as a three-dimensional model generation method using body template data and a convolutional neural network. In three-dimensional modeling using HS-Nets, based on the body shape template data, the front image for model generation and the side image for model generation, which include body regions corresponding to the subject photographed from the front and side, respectively, are extracted. A three-dimensional model corresponding to the orientation and posture of the subject included in the image can be directly generated.

体型テンプレートデータは、所定の人物群より生成された学習済みデータである。具体的には、体型テンプレートデータは、所定の人物群から取得された複数の身体の三次元スキャンデータから、機械学習を使用して作成されたテンプレートメッシュであり得る。
このとき、三次元スキャンデータが機械学習に供される前に、生の三次元スキャンデータが前処理され、さらに前処理された三次元スキャンデータに手動で複数の特徴点(ランドマーク)が指定されることが望ましい。ここで行われ得る前処理には、例えば、三次元スキャンデータ内のノイズ成分の除去や欠落部分の手動修正、及び、三次元スキャンデータの表面のスムージング処理が含まれる。
The body shape template data is learned data generated from a predetermined group of people. Specifically, the body shape template data may be a template mesh created using machine learning from three-dimensional scan data of a plurality of bodies acquired from a predetermined group of people.
At this time, before the 3D scan data is subjected to machine learning, the raw 3D scan data is preprocessed, and multiple feature points (landmarks) are manually specified on the preprocessed 3D scan data. It is desirable that Preprocessing that may be performed here includes, for example, removing noise components in the three-dimensional scan data, manually correcting missing parts, and smoothing the surface of the three-dimensional scan data.

本実施形態は、上述の本発明の第3の特徴として、体型テンプレートデータが、対象者の備える1つ以上の属性を備えた人物群より生成された体型テンプレートにより構成されているといった特徴を有している。ここで、対象者の備える1つ以上の属性とは、対象者の人種、国籍、年齢、性別、体組成値、BMI等の体型等であり、例えば、対象者の人種又は国籍である。
一般的なHS-Netsは、広範囲の人物の体型をモデル化するため、偏りの少ない広い範囲の人物のデータから学習された体型テンプレートを使用するが、広い範囲の人物像を対象としてモデル生成できる代償として、十分な精度が得られないといった問題があった。本実施形態では、体型テンプレートとして、対象者と人種や国籍が同じ等、体型の傾向が対象者に近い人物群より生成されたものを利用することにより、そのような用途に絶え得る高精度なモデルを生成することが可能になる。
The third feature of this embodiment of the present invention is that the body shape template data is composed of body shape templates generated from a group of people having one or more attributes of the subject. are doing. Here, one or more attributes of the target person include the target person's race, nationality, age, gender, body composition value, body shape such as BMI, etc., for example, the target person's race or nationality. .
Typical HS-Nets models a wide range of human body shapes, so they use body templates learned from data on a wide range of people with little bias, but models can be generated for a wide range of human figures. As a trade-off, there was the problem that sufficient accuracy could not be obtained. In this embodiment, by using a body shape template generated from a group of people whose body shape tendency is similar to the target person, such as the same race or nationality as the target person, high precision that can be used for such purposes is achieved. It becomes possible to generate a model.

本サブステップ21にて生成される三次元モデルは、例えば、10,000枚程度のポリゴンによって構成される。もっとも、三次元モデルを構成するポリゴン数は特に限定されず、要求される計算資源及び求められる三次元モデルにおける曲線のスムーズさによって、適宜決定され得る。 The three-dimensional model generated in this sub-step 21 is composed of, for example, about 10,000 polygons. However, the number of polygons constituting the three-dimensional model is not particularly limited, and can be determined as appropriate depending on the required computational resources and the required smoothness of the curve in the three-dimensional model.

次に、サブステップ22において、対象者の三次元モデルに基づいて、モデル生成用画像のそれぞれに対応する比較用二階調画像をそれぞれ生成する(比較用画像生成サブステップ)。 Next, in sub-step 22, two-tone comparison images corresponding to each of the model generation images are generated based on the three-dimensional model of the subject (comparison image generation sub-step).

具体的には、本サブステップ22では、モデル生成用画像の身体領域に表される対象者の身体の姿勢及び向きのそれぞれについて、比較用二階調画像をそれぞれ生成する。これらの比較用二階調画像は、続く画像比較サブステップ23においてリファレンス二階調画像との比較を行う画像であり、リファレンス二階調画像内に含まれる身体領域に対応する姿勢及び向きを備えた対象者の三次元モデルに対応する身体領域と、身体領域以外の領域に対応する背景領域とを含む。比較用二階調画像に含まれる身体領域及び背景領域はそれぞれ、リファレンス二階調画像に含まれる身体領域及び背景領域と同一の第1色及び第2色によって表される。 Specifically, in this sub-step 22, comparative two-tone images are generated for each of the postures and orientations of the subject's body represented in the body region of the model generation image. These comparison two-tone images are images to be compared with the reference two-tone image in the subsequent image comparison sub-step 23, and are images of a subject with a posture and orientation corresponding to the body region included in the reference two-tone image. The image includes a body region corresponding to the three-dimensional model, and a background region corresponding to a region other than the body region. The body region and background region included in the comparison two-tone image are respectively represented by the same first color and second color as the body region and background region included in the reference two-tone image.

本実施形態では、HS-Netsを使用して三次元モデルを生成しているため、前述のモデル生成サブステップ21において、モデル生成用正面画像に含まれる身体領域に対応する姿勢及び向きを有する正面三次元モデルと、モデル生成用側面画像に含まれる身体領域に対応する姿勢及び向きを有する側面三次元モデルがそれぞれ生成されている。そのため、本実施形態では、これら正面三次元モデル及び側面三次元モデルを二値化することによって、リファレンス二階調画像内に含まれる身体領域に対応する姿勢及び向きを備えた比較用正面二階調画像及び比較用側面二階調画像を生成することができる。 In this embodiment, since the three-dimensional model is generated using HS-Nets, in the model generation sub-step 21 described above, a front view having a posture and orientation corresponding to the body region included in the front image for model generation is generated. A three-dimensional model and a side three-dimensional model having a posture and orientation corresponding to the body region included in the model generation side image are respectively generated. Therefore, in this embodiment, by binarizing these front three-dimensional models and side three-dimensional models, a comparison front two-tone image with a posture and orientation corresponding to the body region included in the reference two-tone image is created. and a comparison side two-tone image can be generated.

次に、サブステップ23において、リファレンス二階調画像の身体領域のそれぞれと、比較用二階調画像の身体領域のそれぞれとを比較して、両者の差分値を算出する(比較サブステップ)。 Next, in sub-step 23, each of the body regions of the reference two-tone image and each of the body regions of the comparison two-tone image are compared to calculate a difference value between the two (comparison sub-step).

本サブステップ23における画像の比較及び差分値の算出は、例えば、リファレンス二階調画像と比較用二階調画像とをそれぞれ重ね合わせることによって行うことができる。その際、2つの画像の差分をより正確に測定するために、リファレンス二階調画像内の身体領域と比較用二階調画像内の身体領域とが重なり合わない領域の面積が最小になるように、2つの画像を調節して重ね合わせた上で、差分値を算出することが望ましい。
例えば、2つの画像の位置を調節する際に、これらに含まれる身体領域の縦方向(身長方向)をフィッティングさせるように調節してから、重ね合わせることが望ましい。また、身体領域における手足の開き方の影響を低減又は削除するように2つの画像を調整したり、身体領域の胴部及び脚部の長さを、前述のステップ13(又はステップ13A)により推定された骨格に基づいて補正してから、重ね合わせを行ってもよい。
また、
The comparison of images and the calculation of the difference value in this sub-step 23 can be performed, for example, by superimposing the reference two-tone image and the comparison two-tone image, respectively. At this time, in order to more accurately measure the difference between the two images, the area of the area where the body area in the reference two-tone image and the body area in the comparison two-tone image do not overlap is minimized. It is desirable to calculate the difference value after adjusting and overlapping the two images.
For example, when adjusting the positions of two images, it is desirable to adjust the vertical direction (height direction) of the body regions included in these images so as to fit them, and then superimpose them. In addition, the two images may be adjusted to reduce or eliminate the influence of the way the limbs are spread in the body region, and the lengths of the torso and legs in the body region may be estimated by step 13 (or step 13A) described above. The superimposition may be performed after correction based on the obtained skeleton.
Also,

2つの画像を比較して算出される差分値は、例えば、2つの画像の身体領域の距離の差を算出し、その差を積分することによって、決定することができる。 The difference value calculated by comparing two images can be determined, for example, by calculating the difference in distance between the body regions of the two images and integrating the difference.

本サブステップ23では、2つの画像が全体的に比較されて、1つの差分値が算出されてもよく、2つの画像内の特定の領域毎に比較されて、複数の差分値が算出されてもよい。例えば、差分値は、複数の身体領域における予め定められた複数の身体部位について、それぞれ算出されてもよい。例えば、2つの画像の比較によって、身体部位の胸部、胴部、右腕、左腕、右足、左足、・・・等のそれぞれについての差分値が算出されてもよい。 In this sub-step 23, the two images may be compared as a whole to calculate one difference value, or each specific region within the two images may be compared to calculate a plurality of difference values. Good too. For example, the difference value may be calculated for each of a plurality of predetermined body parts in a plurality of body regions. For example, by comparing two images, difference values may be calculated for each of the body parts such as the chest, torso, right arm, left arm, right leg, left leg, etc.

次に、サブステップ24において、差分値が所定の閾値より大きい場合、かつ、本モデル出力ステップ15の実行回数が所定の回数より少ない場合、比較用二階調画像を修正し、モデル生成用画像を修正された比較用二階調画像に変更する(画像修正サブステップ)。 Next, in sub-step 24, if the difference value is larger than a predetermined threshold, and if the number of executions of this model output step 15 is less than the predetermined number, the comparison two-tone image is modified and the model generation image is The image is changed to a corrected two-tone image for comparison (image correction substep).

具体的には、本サブステップ24では、前述の比較サブステップ23にて算出された差分値が所定の閾値以下である場合、本モデル出力ステップ15を終了し、次の測定ステップ15へと移行する。一方、前述の比較サブステップ23にて算出された差分値が所定の閾値より大きい場合、換言すれば、リファレンス二階調画像と比較用二階調画像との差異が大きく、モデル生成サブステップ21により生成された三次元モデルが対象者の身体を十分に正確に表していない場合には、別のモデル生成用画像を使用して本モデル出力ステップ15を再度実行するために、比較用二階調画像を修正し、モデル生成用画像を修正された比較用二階調画像に変更する。 Specifically, in this sub-step 24, if the difference value calculated in the above-mentioned comparison sub-step 23 is less than or equal to a predetermined threshold, this model output step 15 is ended and the process proceeds to the next measurement step 15. do. On the other hand, if the difference value calculated in the comparison sub-step 23 described above is larger than the predetermined threshold, in other words, the difference between the reference two-tone image and the comparison two-tone image is large, and the model generation sub-step 21 generates If the generated three-dimensional model does not represent the subject's body accurately enough, a two-tone image for comparison may be used to re-execute this model output step 15 using another image for model generation. The image for model generation is changed to the corrected two-tone image for comparison.

上記所定の閾値は、生成される三次元モデルの所望の精度に応じて、任意に決定され得る。
なお、複数の差分値が算出されている場合には、複数の差分値のうち少なくとも1つの差分値が所定の閾値より大きければ本モデル出力ステップ15を再度実行する判断を行ってもよく、複数の差分値の平均が所定の閾値より大きい場合に本モデル出力ステップ15を再度実行する判断を行ってもよい。また、画像内における差分値が算出された複数の領域ごとに、それぞれ異なる閾値が定められており、それらの領域ごとに差分値と閾値との比較が行われてもよい。
The predetermined threshold value may be arbitrarily determined depending on the desired accuracy of the three-dimensional model to be generated.
In addition, when a plurality of difference values are calculated, if at least one difference value among the plurality of difference values is larger than a predetermined threshold value, it may be determined that the present model output step 15 is executed again. If the average of the difference values is larger than a predetermined threshold value, a determination may be made to execute the main model output step 15 again. Furthermore, different threshold values may be determined for each of a plurality of regions in the image for which difference values have been calculated, and the difference values and threshold values may be compared for each of these regions.

もっとも、使用されるリファレンス二階調画像によっては、本モデル出力ステップ15を多くの回数繰り返しても差分値が所定の閾値以下とならず、もはやその期待もできないと考えられる場合もあり得る。そのような状況となった際に本ステップ15の繰り返しを停止するため、本サブステップ24では、前述の比較サブステップ23にて算出された差分値が所定の閾値より大きい場合であっても、本モデル出力ステップ15の実行回数が所定の回数に達した場合には、本モデル出力ステップ15の繰り返しを終了し、次の測定ステップ15へと移行する。
ここで、本ステップ15の繰り返しの終了を決定するために設定される本ステップ15の所定の実行回数は、三次元モデルの生成のために許容される計算資源や所要時間に応じて、任意に決定される。また、繰り返しをできる限り停止させたくない場合には、所定の実行回数を十分に大きい値(例えば、設定可能な最大の値)に設定しておけばよい。
However, depending on the reference two-tone image used, there may be cases in which the difference value does not become less than the predetermined threshold even if this model output step 15 is repeated many times, and it is no longer possible to expect this. In order to stop repeating this step 15 when such a situation occurs, in this sub-step 24, even if the difference value calculated in the above-mentioned comparison sub-step 23 is larger than a predetermined threshold value, When the number of executions of this model output step 15 reaches a predetermined number of times, the repetition of this model output step 15 is completed, and the process moves to the next measurement step 15.
Here, the predetermined number of executions of this step 15, which is set to determine the end of the repetition of this step 15, can be arbitrarily determined depending on the computational resources and time required for generating the three-dimensional model. It is determined. Furthermore, if it is desired to avoid stopping the repetition as much as possible, the predetermined number of executions may be set to a sufficiently large value (for example, the maximum value that can be set).

比較用二階調画像は、任意の方法によって修正されてもよい。例えば、比較用二階調画像の修正は、比較用二階調画像から、差分値に基づいて推定されるノイズ成分を除去することによって行うことができる。
あるいは、比較用二階調画像の修正は、比較用二階調画像の寸法を補正することによって行うこともできる。ここで、寸法の補正は、比較用二階調画像全体に対して行われてもよく、比較用二階調画像内の身体領域における1つ以上の特定の身体部位に対して行われてもよい。例えば、前述の比較サブステップ23において、対象者の右腕に対応する身体領域に関して比較され、算出された差分値が比較的大きい場合に、比較用二階調画像内の身体領域の右腕に対応する領域の寸法を、リファレンス画像に近づくように大きく又は小さく補正してもよい。
なお、ここに挙げた方法は、単独で行われてもよく、複数の方法を組み合わせて行われてもよい。
The comparative two-tone image may be modified by any method. For example, the comparison two-tone image can be corrected by removing noise components estimated based on the difference values from the comparison two-tone image.
Alternatively, the comparison two-tone image can be modified by correcting the dimensions of the comparison two-tone image. Here, the dimension correction may be performed on the entire comparison two-tone image, or may be performed on one or more specific body parts in the body region within the comparison two-tone image. For example, in the comparison sub-step 23 described above, when the body region corresponding to the right arm of the subject is compared and the calculated difference value is relatively large, the region corresponding to the right arm of the body region in the two-tone image for comparison The dimensions of the image may be corrected to be larger or smaller so as to approach the reference image.
Note that the methods listed here may be performed alone or in combination of a plurality of methods.

本サブステップ24において比較用二階調画像の修正を行った後、修正された比較用二階調画像を、新たなモデル生成用画像として設定して、本モデル出力ステップ15を再度実行する。再度実行されたモデル出力ステップ15は、再びサブステップ21から始まり、この新たに設定されたモデル生成用画像から新たな三次元モデルを生成して、これをサブステップ22~24において評価する。 After the comparison two-tone image is corrected in this sub-step 24, the corrected comparison two-tone image is set as a new model generation image, and the main model output step 15 is executed again. The re-executed model output step 15 starts again with sub-step 21, generates a new three-dimensional model from this newly set model generation image, and evaluates this in sub-steps 22-24.

このようにして、本モデル出力ステップ15では、生成される三次元モデルが撮影された対象者の身体を所望の精度で正確に表していることが確認できるまで、三次元モデルの生成に使用するモデル生成用語画像を変更して三次元モデルの生成を繰り返す。その結果、本実施形態の方法1は、高い精度の三次元モデルを生成することができる。 In this way, in this model output step 15, the three-dimensional model is used to generate the three-dimensional model until it is confirmed that the generated three-dimensional model accurately represents the body of the photographed subject with the desired accuracy. Change the model generation term image and repeat generation of the 3D model. As a result, method 1 of the present embodiment can generate a highly accurate three-dimensional model.

その後、ステップ16において、最後に算出された差分値が所定の閾値以下であった場合、最後に生成された対象者の三次元モデルに基づいて、対象者の身体特徴に関連する1つ以上の寸法を測定する(測定ステップ)。 Then, in step 16, if the last calculated difference value is less than or equal to a predetermined threshold, one or more of the body characteristics related to the subject's body characteristics are calculated based on the last generated three-dimensional model of the subject. Measure dimensions (measuring step).

本ステップ16において測定される、対象者の身体特徴に関連する寸法とは、対象者の任意の身体部位に関連する、長さ、高さ、周長等の任意の寸法であってもよく、例えば、対象者の身体にフィットする衣装サイズの寸法として測定されてもよい。当該寸法は、例えば、対象者の肩幅、胸囲、胴囲、首回り、腕回り、腰回り、手首回り、太腿回り、ウエスト、ヒップ、背丈、袖丈、裄丈、股上長、股下長等であり得る。 The dimensions related to the physical characteristics of the subject measured in this step 16 may be any dimensions such as length, height, circumference, etc. related to any body part of the subject. For example, it may be measured as a costume size that fits the subject's body. The relevant dimensions include, for example, the subject's shoulder width, chest circumference, waist circumference, neck circumference, arm circumference, waist circumference, wrist circumference, thigh circumference, waist, hip, back length, sleeve length, sleeve length, rise length, inseam length, etc. could be.

なお、当該寸法を測定するにあたり、予め取得されていた対象者の身体情報を参照してもよい。例えば、対象者の身長の値が予め与えられていた場合には、当該寸法は、対象者の三次元モデルの身長との比率に基づいて計算することができる。 Note that when measuring the dimensions, reference may be made to the physical information of the subject that has been acquired in advance. For example, if the value of the height of the subject is given in advance, the dimension can be calculated based on the ratio of the height of the subject to the three-dimensional model.

以上のように、本実施形態の方法1では、対象者の三次元モデルを出力するモデル出力ステップ15が、三次元モデルから生成された比較用二階調画像と撮影画像に基づくリファレンス二階調画像との誤差が十分に小さい三次元モデルが得られるまで、必要に応じてサブステップ21~24を繰り返すこと(第1の特徴)によって、対象者の身体が高い精度でモデリングされた三次元モデルを出力することができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 As described above, in the method 1 of the present embodiment, the model output step 15 of outputting a three-dimensional model of the subject includes a comparison two-tone image generated from the three-dimensional model and a reference two-tone image based on the photographed image. By repeating substeps 21 to 24 as necessary until a three-dimensional model with sufficiently small errors is obtained (first feature), a three-dimensional model in which the subject's body is modeled with high accuracy is output. Based on such a three-dimensional model, the physical characteristics of the subject can be measured with high accuracy.

さらに、本実施形態の方法1では、二値化ステップ12の後に、二階調画像補正ステップ13を実行し、撮影画像を取得する際に生じ得る対象者の身体領域の歪みを補正すること(第2の特徴)によって、モデル出力ステップ15において対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 Furthermore, in method 1 of the present embodiment, after the binarization step 12, a two-tone image correction step 13 is executed to correct distortion of the subject's body region that may occur when acquiring the captured image ( 2), a three-dimensional model of the subject can be modeled with high precision in the model output step 15, and based on such a three-dimensional model, the physical characteristics of the subject can be measured with high precision. can.

さらに、本実施形態の方法1では、体型テンプレートデータが、対象者の備える1つ以上の属性を備えた人物群より生成された体型テンプレートにより構成されていること(第3の特徴)によって、モデル出力ステップ15において対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 Furthermore, in method 1 of the present embodiment, the body shape template data is composed of body shape templates generated from a group of people having one or more attributes of the subject (third feature). In the output step 15, a three-dimensional model of the subject can be modeled with high precision, and based on such a three-dimensional model, the physical characteristics of the subject can be measured with high precision.

これにより、対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 Thereby, a three-dimensional model of the subject can be modeled with high precision, and based on such a three-dimensional model, the physical characteristics of the subject can be measured with high precision.

図3は、図1に示される身体採寸方法を実行可能なコンピュータを含むシステム3の一実施形態を示す。
なお、図1で示される身体採寸方法は、必ずしもシステム3によって実行される必要はなく、任意のコンピュータシステムによって実行され得る。
FIG. 3 shows one embodiment of a system 3 that includes a computer capable of performing the body measurement method shown in FIG.
Note that the body measurement method shown in FIG. 1 does not necessarily need to be executed by the system 3, but can be executed by any computer system.

システム3は、図1に示される身体採寸方法を実行するコンピュータとして、ユーザ端末31と、サーバ32とを備えている。 The system 3 includes a user terminal 31 and a server 32 as a computer that executes the body measurement method shown in FIG.

ユーザ端末31は、対象者又はその他の者によってサーバ32から離れた位置にて操作され、サーバ32とネットワークを介してデータを送受信可能な任意の端末であり得る。例えば、ユーザ端末1は、デスクトップコンピュータ、モバイルコンピュータ、タブレットコンピュータ、携帯電話、スマートフォン、ウェアラブルデバイス、ハンドヘルドデバイス、任意の組み込みデバイス等であってもよい。 The user terminal 31 may be any terminal operated by the subject or another person at a location remote from the server 32 and capable of transmitting and receiving data to and from the server 32 via a network. For example, the user terminal 1 may be a desktop computer, a mobile computer, a tablet computer, a mobile phone, a smart phone, a wearable device, a handheld device, any embedded device, etc.

サーバ32は、ユーザ端末31よりネットワークを介して送信されたデータをコンピューティング処理可能な任意のサーバであり得る。例えば、サーバ32は、1つ又は複数のコンピュータ資源によって構成されたオンプレミスのサーバであってもよく、クラウドネットワーク上で実現されるクラウドサーバであってもよい。 The server 32 may be any server capable of computing data transmitted from the user terminal 31 via the network. For example, the server 32 may be an on-premises server configured with one or more computer resources, or may be a cloud server implemented on a cloud network.

ユーザ端末31及びサーバ32は、ネットワークを介して両者の間でデータを送受信することによって、以下に詳細に説明される本発明の身体採寸方法において実行される各ステップを、任意に分担して実行することができる。
例えば、ユーザ端末31では、対象者の撮影等、対象者の近くで取得可能なデータを取得するためのステップや、計算負荷の比較的小さい処理を行うステップを実行する一方で、通常ユーザ端末2よりも計算資源の豊富なサーバ32において、計算負荷の大きい処理を行うステップを実行してもよい。
By transmitting and receiving data between the user terminal 31 and the server 32 via the network, the user terminal 31 and the server 32 can arbitrarily share and execute each step executed in the body measurement method of the present invention, which will be explained in detail below. can do.
For example, while the user terminal 31 executes steps for acquiring data that can be obtained near the subject, such as photographing the subject, and steps that perform processing with a relatively low computational load, the user terminal 31 The step of performing processing with a large calculation load may be executed in the server 32 which has more abundant calculation resources than the server 32 .

具体的には、本実施形態のシステム3では、ユーザ端末31は、画像取得モジュール311と、二値化モジュール312と、通信モジュール310とを備えている。ユーザ端末31は、さらに、カメラ315と、深度センサ316とを備えている。
画像取得モジュール311は、上述の画像取得ステップ11を実行するように構成されており、具体的には、ユーザ端末に備えられたカメラ315によって、撮影画像を取得するように構成されている。また、画像取得モジュール311は、深度センサ316により取得された深度データを利用して、撮影画像に対して歪み補正処理を行うようにも構成されている。
二値化モジュール312は、上述の二値化ステップ12を実行するように構成されている。
通信モジュール310は、サーバ32の通信モジュール320とデータを送受信するように構成されており、一例として、二値化モジュール312により生成されたリファレンス二階調画像を、以降の処理をサーバ32上で行うために、サーバ32の通信モジュール320へと送信する。
Specifically, in the system 3 of this embodiment, the user terminal 31 includes an image acquisition module 311, a binarization module 312, and a communication module 310. The user terminal 31 further includes a camera 315 and a depth sensor 316.
The image acquisition module 311 is configured to execute the image acquisition step 11 described above, and specifically, is configured to acquire a captured image by a camera 315 provided in the user terminal. The image acquisition module 311 is also configured to perform distortion correction processing on the captured image using depth data acquired by the depth sensor 316.
The binarization module 312 is configured to perform the binarization step 12 described above.
The communication module 310 is configured to send and receive data to and from the communication module 320 of the server 32, and, as an example, performs subsequent processing on the reference two-tone image generated by the binarization module 312 on the server 32. to the communication module 320 of the server 32.

また、サーバ32は、通信モジュール320と、二階調画像補正モジュール323と、定義モジュール324と、モデル出力モジュール325と、測定モジュール326とを備えている。
通信モジュール320は、ユーザ端末31の通信モジュール310とデータを送受信するように構成されており、一例として、ユーザ端末31の通信モジュール310から送信されたリファレンス二階調画像を受信する。
二階調画像補正モジュール323は、上述の二階調画像補正ステップ13を実行するように構成されている。
定義モジュール324は、上述の定義ステップ14を実行するように構成されている。
モデル出力モジュール325は、上述のモデル出力ステップ15を実行するように構成されている。
測定モジュール326は、上述の測定ステップ16を実行するように構成されている。
The server 32 also includes a communication module 320, a two-tone image correction module 323, a definition module 324, a model output module 325, and a measurement module 326.
The communication module 320 is configured to transmit and receive data to and from the communication module 310 of the user terminal 31, and receives, for example, a reference two-tone image transmitted from the communication module 310 of the user terminal 31.
The two-tone image correction module 323 is configured to perform the two-tone image correction step 13 described above.
Definition module 324 is configured to perform definition step 14 described above.
Model output module 325 is configured to perform model output step 15 described above.
Measurement module 326 is configured to perform measurement step 16 described above.

ここで、モデル出力モジュール325は、図4に示されるように、モデル生成サブモジュール421と、比較用画像生成サブモジュール422と、比較サブモジュール423と、画像修正サブモジュール424とを備えている。
これらのサブモジュール421~424は、上述のサブステップ21~24をそれぞれ実行するように構成されている。
Here, the model output module 325 includes a model generation sub-module 421, a comparison image generation sub-module 422, a comparison sub-module 423, and an image correction sub-module 424, as shown in FIG.
These sub-modules 421-424 are configured to perform the above-described sub-steps 21-24, respectively.

上記のように、本実施形態のシステム3では、ユーザ端末31が、本発明の方法1に含まれる各ステップのうち、対象者から撮影画像を取得し得る画像取得ステップ11、及び、計算負荷の比較的小さい二値化ステップ12を実行するように構成されている一方で、サーバ32において、計算負荷の大きい二階調画像補正ステップ13及びモデル出力ステップ15を実行するように構成されている。
したがって、本実施形態のシステム3は、ユーザ端末31とサーバ32との間で計算負荷を効率的に分散することができる。
As described above, in the system 3 of the present embodiment, the user terminal 31 performs, among the steps included in the method 1 of the present invention, the image acquisition step 11 in which a photographed image can be acquired from the subject and the calculation load. While the server 32 is configured to execute the binarization step 12, which is relatively small, the server 32 is configured to execute the two-tone image correction step 13 and the model output step 15, which require a large calculation load.
Therefore, the system 3 of this embodiment can efficiently distribute the calculation load between the user terminal 31 and the server 32.

なお、本実施形態のシステム3では、二階調画像補正ステップ13を実行するように構成された二階調画像補正モジュール323が、サーバ32に備えられているが、これに代えて又はこれに加えて、ユーザ端末31がステップ13Aを実行するように構成されたモジュール313(図示せず)を備えていてもよい。 Note that in the system 3 of the present embodiment, the server 32 is equipped with a two-tone image correction module 323 configured to execute the two-tone image correction step 13; , the user terminal 31 may include a module 313 (not shown) configured to perform step 13A.

図5は、本発明の方法の画像取得ステップにおいて(例えば、上記実施形態のステップ11において)取得される撮影画像を撮影する際に使用されるアプリケーション5上に表示される撮影画面50の例を示す。アプリケーション5は、例えば、システム3のユーザ端末31上において動作し得る。以下では、ユーザ端末31はスマートフォンであり、アプリケーション5がスマートフォンアプリであることを前提として説明する。 FIG. 5 shows an example of a photographing screen 50 displayed on the application 5 used when photographing a photographed image acquired in the image acquisition step of the method of the present invention (for example, in step 11 of the above embodiment). show. Application 5 may run on user terminal 31 of system 3, for example. The following description will be made on the assumption that the user terminal 31 is a smartphone and the application 5 is a smartphone application.

図5(a)及び(b)に示されるように、アプリケーション5の撮影画面50には、撮影に要求される対象者の姿勢及び向きに対応するガイド枠51が表示されている。ここで、図5(a)及び(b)に示される当該姿勢はAポーズであり、図5(a)に示される当該向きは正面向き、図5(b)に示される当該向きは側方向きである。 As shown in FIGS. 5A and 5B, a guide frame 51 corresponding to the posture and orientation of the subject required for imaging is displayed on the imaging screen 50 of the application 5. Here, the pose shown in FIGS. 5(a) and 5(b) is the A pose, the orientation shown in FIG. 5(a) is frontal, and the orientation shown in FIG. 5(b) is lateral. It is possible.

撮影者がアプリケーション5を用いて対象者を撮影する際、撮影画面50上には、アプリケーションが動作するユーザ端末31に設けられるカメラ315のレンズに映った映像が表示され、ガイド枠51は、その映像と重なるように撮影画面50上に表示され続ける。
撮影者は、被写体である対象者の身体を撮影する際に、対象者の身体がガイド枠51の枠内に概ね収まるように、カメラ315(及び、必要であれば、カメラ315が設けられているユーザ端末31)の向き、対象者までの距離、レンズに映って撮影画面50上に表示されている映像の撮影画面50上における拡大率等を調節する。このような調節によって撮影画面50上において対象者の身体がガイド枠51の枠内に十分に収まるようになってから、撮影者は対象者の身体を撮影する。
When the photographer uses the application 5 to photograph a subject, the image reflected in the lens of the camera 315 provided on the user terminal 31 on which the application operates is displayed on the photographing screen 50, and the guide frame 51 It continues to be displayed on the shooting screen 50 so as to overlap with the video.
When photographing the body of the subject, the photographer uses the camera 315 (and if necessary, the camera 315 is installed) so that the subject's body is approximately within the guide frame 51. The user terminal 31) adjusts the orientation of the user terminal 31), the distance to the subject, the magnification on the photographing screen 50 of the image reflected in the lens and displayed on the photographing screen 50, etc. After such adjustment allows the subject's body to sufficiently fit within the guide frame 51 on the photographing screen 50, the photographer photographs the subject's body.

このように、アプリケーション5の撮影画面50に表示されたガイド枠51によって、後のモデル出力ステップ(例えば、ステップ15)にて要求される姿勢及び向きの対象者を容易に撮影することができるため、モデル生成に適した歪みの少ない撮影画像を容易に取得することができる。 In this way, the guide frame 51 displayed on the photographing screen 50 of the application 5 makes it possible to easily photograph the subject in the posture and orientation required in the later model output step (for example, step 15). , it is possible to easily obtain captured images with little distortion that are suitable for model generation.

アプリケーション5は、撮影者が対象者を撮影する際に、撮影画面50上において対象者の身体がガイド枠51の枠内に十分に収まっていない場合には撮影を許可せず、対象者の身体がガイド枠51の枠内に十分に収まっている場合にのみ、アプリケーション5の画面上に文字「撮影」が表示されている範囲のタッチ領域をアクティブ化して、撮影を許可するように構成されていてもよい。
アプリケーション5が上記のように構成されている場合には、撮影者は、撮影に要求される姿勢及び向きの対象者をより容易に撮影することができる。
When a photographer photographs a subject, if the subject's body is not sufficiently within the guide frame 51 on the photographing screen 50, the application 5 does not permit photography, and is configured to activate the touch area in the range where the characters "Shoot" are displayed on the screen of the application 5 to permit shooting only when the image is sufficiently within the guide frame 51. It's okay.
When the application 5 is configured as described above, the photographer can more easily photograph the subject in the posture and orientation required for photographing.

アプリケーション5は、主として画像取得ステップにおいて取得される少なくとも1つの撮影画像を撮影するために使用されるが、本発明の身体採寸方法を実行するにあたって有用な他の情報を取得するために使用されてもよい。
例えば、アプリケーション5は、対象者の身長、体重、年齢等、三次元モデルに基づく採寸において参照され得る有用な情報を、対象者が直接入力するためのインタフェースをさらに備えていてもよい。
The application 5 is mainly used to capture at least one captured image obtained in the image acquisition step, but is also used to obtain other information useful in carrying out the body measurement method of the present invention. Good too.
For example, the application 5 may further include an interface for the subject to directly input useful information such as the subject's height, weight, age, etc. that can be referenced in measurements based on the three-dimensional model.

なお、本実施形態に係るコンピュータにより実行される身体採寸方法は、上記の実施形態の構成に限定されるものではない。また、本発明に係るコンピュータにより実行される身体採寸方法は、上記した作用効果によって限定されるものでもない。本発明に係るコンピュータにより実行される身体採寸方法は、本発明の要旨を逸脱しない範囲で種々の変更が可能である。 Note that the body measurement method executed by the computer according to this embodiment is not limited to the configuration of the above embodiment. Further, the body measurement method executed by the computer according to the present invention is not limited to the above-described effects. The body measurement method executed by the computer according to the present invention can be modified in various ways without departing from the gist of the present invention.

例えば、図1に示される方法1では、本発明の上記第1の特徴に係る三次元モデルの生成を繰り返すサブステップ21~24と、本発明の上記第2の特徴に係る骨格推定に基づいて画像を補正するステップ13(又はステップ13A)との両方を備えているが、本発明の方法は、これらの特徴の両方を必ずしも有していなくてもよい。 For example, method 1 shown in FIG. 1 includes substeps 21 to 24 of repeating the generation of a three-dimensional model according to the above-mentioned first feature of the present invention, and based on skeletal estimation according to the above-mentioned second feature of the present invention. 13 (or step 13A) of correcting the image, the method of the invention does not necessarily have both of these features.

例えば、本発明の身体採寸方法では、三次元モデルの生成を繰り返すサブステップ21~24を含んでいるのであれば、骨格推定に基づいて画像を補正するステップ13(又はステップ13A)を必ずしも行わなくてもよい。同様に、骨格推定に基づいて画像を補正するステップ13(又はステップ13A)を実行するのであれば、三次元モデルの生成を繰り返すサブステップ21~24を行わず、三次元モデルの生成を一度だけ実行する者であってもよい。本発明の身体採寸方法は、これらの特徴に係るステップのうち片方だけを含んでいる場合であっても、対象者の身体特徴を高い精度で採寸することができる。 For example, if the body measurement method of the present invention includes substeps 21 to 24 of repeatedly generating a three-dimensional model, step 13 (or step 13A) of correcting the image based on skeletal estimation is not necessarily performed. It's okay. Similarly, if step 13 (or step 13A) of correcting the image based on skeleton estimation is executed, the substeps 21 to 24 of repeating the generation of the 3D model are not performed, and the 3D model is generated only once. It may be the person who executes it. The body measurement method of the present invention can measure the subject's body characteristics with high accuracy even when only one of the steps related to these characteristics is included.

また、ここではこれ以上の詳細な説明を繰り返して行うことをしないが、上記に直接的に記載がされていない事項であっても、身体採寸方法について従来公知の技術事項については、本発明においても適宜採用可能である。 In addition, although a more detailed explanation will not be repeated here, even if the matters are not directly described above, conventionally known technical matters regarding body measurement methods will be included in the present invention. can also be adopted as appropriate.

Claims (10)

対象者の身体を採寸するためのコンピュータにより実行される方法であって、
前記対象者の身体に対応する身体領域と、前記身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する画像取得ステップと、
前記撮影画像のそれぞれを変換して、前記撮影画像の身体領域に対応する第1色で表された身体領域と、前記撮影画像の背景領域に対応する第2色が表された背景領域とを含む、前記撮影画像に対応するリファレンス二階調画像をそれぞれ生成する二値化ステップと、
前記リファレンス二階調画像のそれぞれを、モデル生成用画像として定義する定義ステップと、
前記対象者の三次元モデルを出力するモデル出力ステップであって、
体型テンプレートデータと畳み込みニューラルネットワークを使用して、前記モデル生成用画像から、前記対象者の三次元モデルを生成するサブステップと、
前記対象者の三次元モデルに基づいて、前記モデル生成用画像のそれぞれに対応する比較用二階調画像をそれぞれ生成するサブステップと、
前記リファレンス二階調画像の身体領域のそれぞれと、前記比較用二階調画像の身体領域のそれぞれとを比較して、両者の差分値を算出するサブステップと、
前記差分値が所定の閾値より大きい場合、かつ、本モデル出力ステップの実行回数が所定の回数より少ない場合、前記比較用二階調画像を修正し、前記モデル生成用画像を修正された前記比較用二階調画像に変更して、本モデル出力ステップを再度実行するサブステップと
を含む、モデル出力ステップと、
最後に算出された前記差分値が所定の閾値以下であった場合、最後に生成された前記対象者の三次元モデルに基づいて、前記対象者の身体特徴に関連する1つ以上の寸法を測定する測定ステップと
を含む、方法。
A computer-implemented method for measuring the body of a subject, the method comprising:
an image obtaining step of obtaining at least one captured image including a body region corresponding to the body of the subject and a background region corresponding to a region other than the body region;
Each of the photographed images is converted into a body region represented by a first color corresponding to the body region of the photographed image and a background region represented by a second color corresponding to the background region of the photographed image. a binarization step of generating reference two-tone images corresponding to the photographed images, respectively;
a definition step of defining each of the reference two-tone images as a model generation image;
a model output step of outputting a three-dimensional model of the subject,
a substep of generating a three-dimensional model of the subject from the model generation image using body shape template data and a convolutional neural network;
a substep of generating comparative two-tone images corresponding to each of the model generation images based on the three-dimensional model of the subject;
a substep of comparing each of the body regions of the reference two-tone image and each of the body regions of the comparison two-tone image to calculate a difference value between the two;
If the difference value is larger than a predetermined threshold, and if the number of executions of this model output step is less than a predetermined number of times, the comparison two-tone image is corrected, and the model generation image is changed to the corrected comparison image. A model output step, comprising: a substep of changing to a two-tone image and executing the model output step again;
If the last calculated difference value is less than or equal to a predetermined threshold, one or more dimensions related to the body characteristics of the subject are measured based on the last generated three-dimensional model of the subject. and a measuring step.
前記少なくとも1つの撮影画像が、前記対象者を正面から撮影した画像と、前記対象者を側面から撮影した画像とを含む、請求項1に記載の方法。 The method according to claim 1, wherein the at least one captured image includes an image captured from the front of the subject and an image captured from the side of the subject. 前記少なくとも1つの撮影画像が、前記対象者のユーザ端末によって撮影された画像である、請求項1又は2に記載の方法。 The method according to claim 1 or 2, wherein the at least one captured image is an image captured by a user terminal of the subject. 前記少なくとも1つの撮影画像が、前記ユーザ端末に設けられた深度センサによって、前記撮影画像の撮影と同時に取得された深度データに基づいて、歪み補正された画像である、請求項3に記載の方法。 The method according to claim 3, wherein the at least one captured image is an image that has been subjected to distortion correction based on depth data acquired simultaneously with the capturing of the captured image by a depth sensor provided in the user terminal. . 前記少なくとも1つの撮影画像が、前記ユーザ端末上で動作するアプリケーション上で撮影された画像であり、前記アプリケーションの撮影画面には、撮影に要求される前記対象者の姿勢及び向きに対応するガイド枠が表示されている、請求項3又は4に記載の方法。 The at least one photographed image is an image photographed on an application running on the user terminal, and the photographing screen of the application includes a guide frame corresponding to the posture and orientation of the subject required for photographing. The method according to claim 3 or 4, wherein: is displayed. 前記二値化ステップの前に、前記撮影画像から前記対象者の骨格を推定し、推定された骨格を用いて、前記撮影画像に含まれる前記身体領域の形状を補正する撮影画像補正ステップ、又は、
前記定義ステップの前に、前記撮影画像又は前記リファレンス二階調画像から前記対象者の骨格を推定し、推定された骨格を用いて、前記リファレンス二階調画像に含まれる前記身体領域の形状を補正する二階調画像補正ステップ
をさらに含む、請求項1~5のいずれか1項に記載の方法。
Before the binarization step, a photographed image correction step of estimating the skeleton of the subject from the photographed image and correcting the shape of the body region included in the photographed image using the estimated skeleton, or ,
Before the defining step, the skeleton of the subject is estimated from the photographed image or the reference two-tone image, and the shape of the body region included in the reference two-tone image is corrected using the estimated skeleton. A method according to any one of claims 1 to 5, further comprising a two-tone image correction step.
前記体型テンプレートデータが、前記対象者の備える1つ以上の属性を備えた人物群より生成された体型テンプレートにより構成されている、請求項1~6のいずれか1項に記載の方法。 The method according to any one of claims 1 to 6, wherein the body shape template data is constituted by a body shape template generated from a group of people having one or more attributes of the subject. 前記対象者の備える1つ以上の属性が、前記対象者の国籍又は人種のうち1つ以上を含む、請求項7に記載の方法。 8. The method of claim 7, wherein the one or more attributes of the subject include one or more of the subject's nationality or race. 前記差分値が、前記リファレンス二階調画像と前記比較用二階調画像とをそれぞれ重ね合わせることであって、その際に、前記リファレンス二階調画像内の前記身体領域と前記比較用二階調画像内の前記身体領域とが重なり合わない領域の面積が最小になるように調節することによって算出される、請求項1~8のいずれか1項に記載の方法。 The difference value is obtained by superimposing the reference two-tone image and the comparison two-tone image, respectively, and at that time, the body area in the reference two-tone image and the comparison two-tone image are superimposed on each other. The method according to any one of claims 1 to 8, wherein the method is calculated by adjusting so that the area of a region that does not overlap with the body region is minimized. 前記比較用二階調画像の修正が、前記差分値に基づいて推定されるノイズ成分の除去、寸法の補正のうち少なくとも1つを行うことを含む、請求項1~9のいずれか1項に記載の方法。 According to any one of claims 1 to 9, the modification of the comparison two-tone image includes performing at least one of removing a noise component estimated based on the difference value and correcting a dimension. the method of.
JP2022000630A 2022-01-05 2022-01-05 Computer-implemented body measurement method Active JP7365435B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022000630A JP7365435B2 (en) 2022-01-05 2022-01-05 Computer-implemented body measurement method
JP2023150496A JP2023166573A (en) 2022-01-05 2023-09-15 Body size measuring method executed by computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022000630A JP7365435B2 (en) 2022-01-05 2022-01-05 Computer-implemented body measurement method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023150496A Division JP2023166573A (en) 2022-01-05 2023-09-15 Body size measuring method executed by computer

Publications (2)

Publication Number Publication Date
JP2023100154A JP2023100154A (en) 2023-07-18
JP7365435B2 true JP7365435B2 (en) 2023-10-19

Family

ID=87200599

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022000630A Active JP7365435B2 (en) 2022-01-05 2022-01-05 Computer-implemented body measurement method
JP2023150496A Pending JP2023166573A (en) 2022-01-05 2023-09-15 Body size measuring method executed by computer

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023150496A Pending JP2023166573A (en) 2022-01-05 2023-09-15 Body size measuring method executed by computer

Country Status (1)

Country Link
JP (2) JP7365435B2 (en)

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Alexandru O. Balan et al.,Detailed Human Shape and Pose from Images,[online],2007年,https://ieeexplore.ieee.org/document/4270338
Endri Dibra et al.,HS-Nets : Estimating Human Body Shape from Silhouettes with Convolutional Neural Networks,[online],2016年,https://ieeexplore.ieee.org/document/7785083

Also Published As

Publication number Publication date
JP2023166573A (en) 2023-11-21
JP2023100154A (en) 2023-07-18

Similar Documents

Publication Publication Date Title
KR102290040B1 (en) Imaging a body
Song et al. Learning to hallucinate face images via component generation and enhancement
JP4950787B2 (en) Image processing apparatus and method
US20150213646A1 (en) Method and System for Constructing Personalized Avatars Using a Parameterized Deformable Mesh
KR20170008638A (en) Three dimensional content producing apparatus and three dimensional content producing method thereof
JP2015527625A (en) physical measurement
CN114219878B (en) Animation generation method and device for virtual character, storage medium and terminal
CN109816784B (en) Method and system for three-dimensional reconstruction of human body and medium
KR102202490B1 (en) Device and method for measuring three-dimensional body model
CN111862299A (en) Human body three-dimensional model construction method and device, robot and storage medium
US11403781B2 (en) Methods and systems for intra-capture camera calibration
CN109655011B (en) Method and system for measuring dimension of human body modeling
CN111680573B (en) Face recognition method, device, electronic equipment and storage medium
Guo et al. Human performance capture from monocular video in the wild
US11922593B2 (en) Methods of estimating a bare body shape from a concealed scan of the body
KR101995411B1 (en) Device and method for making body model
US11461914B2 (en) Measuring surface distances on human bodies
US20230132479A1 (en) Systems and methods for personalized patient body modeling
CN113516755A (en) Image processing method, image processing apparatus, electronic device, and storage medium
JP7365435B2 (en) Computer-implemented body measurement method
Straka et al. Rapid skin: estimating the 3D human pose and shape in real-time
CN107403448A (en) Cost function generation method and cost function generating means
CN114663983A (en) Mesh topology structure acquisition method and device, electronic equipment and storage medium
JP2022092528A (en) Three-dimensional person attitude estimation apparatus, method, and program
CN112464791A (en) Gesture recognition method, device, equipment and storage medium based on two-dimensional camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231006

R150 Certificate of patent or registration of utility model

Ref document number: 7365435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150