JP7365435B2 - Computer-implemented body measurement method - Google Patents
Computer-implemented body measurement method Download PDFInfo
- Publication number
- JP7365435B2 JP7365435B2 JP2022000630A JP2022000630A JP7365435B2 JP 7365435 B2 JP7365435 B2 JP 7365435B2 JP 2022000630 A JP2022000630 A JP 2022000630A JP 2022000630 A JP2022000630 A JP 2022000630A JP 7365435 B2 JP7365435 B2 JP 7365435B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- tone
- photographed
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
本発明は、コンピュータにより実行される身体採寸方法に関する。 The present invention relates to a computer-implemented body measurement method.
近年のコンピュータ技術の発展に伴い、人物が撮影された映像又は画像から、該人物の身体寸法を自動的に採寸する試みがなされてきている。このような映像又は画像からの自動採寸技術は、特に、衣料品分野において、顧客の身体寸法をネットワーク越しに測定可能な方法として、注目されている。 With the recent development of computer technology, attempts have been made to automatically measure the body dimensions of a person from a video or image of the person. Such automatic measurement techniques from videos or images are attracting attention, particularly in the clothing field, as a method that can measure a customer's body dimensions over a network.
現在よく知られている自動採寸方法は、典型的には、対象者が撮影された二次元の映像又は画像から、畳み込みニューラルネットワーク(CNN)を使用して対象者の身体が表現された三次元モデルを生成し、この三次元モデルから寸法を測定することによって行われる。そのような自動採寸技術の例として、非特許文献1に開示されるBodyNetが広く知られている。BodyNetでは、二次元の映像又は画像内に撮影されている対象者に対して骨格推定を行った後、推定された骨格に肉付け(スキニング)を行うことによって三次元モデルを生成している。 Currently well-known automatic measurement methods typically convert a two-dimensional video or image of the subject into a three-dimensional representation of the subject's body using a convolutional neural network (CNN). This is done by creating a model and measuring dimensions from this three-dimensional model. As an example of such automatic measurement technology, BodyNet disclosed in Non-Patent Document 1 is widely known. In BodyNet, a three-dimensional model is generated by estimating the skeleton of a subject photographed in a two-dimensional video or image and then fleshing out (skinning) the estimated skeleton.
一方、自動採寸技術の他の例として、非特許文献2に開示されるHS-Netsもまた知られている。HS-Netsでは、BodyNetのような骨格推定や肉付けを行うのではなく、対象者が所定の姿勢及び向きで撮影された複数の二次元の画像から、三次元モデルを直接生成する。この方法では、ベースとなる二次元の画像の撮影状態が指定されるが、特許文献1のBodyNetと比較して優れた精度で三次元モデルを生成できる。 On the other hand, as another example of automatic measurement technology, HS-Nets disclosed in Non-Patent Document 2 is also known. In HS-Nets, a three-dimensional model is directly generated from a plurality of two-dimensional images taken of a subject in a predetermined posture and orientation, rather than performing skeletal estimation or fleshing out as in BodyNet. In this method, the shooting state of a two-dimensional image serving as a base is specified, but a three-dimensional model can be generated with superior accuracy compared to BodyNet of Patent Document 1.
しかしながら、非特許文献1及び2の方法により得られる三次元モデルは、身体の細かな特徴に対する正確な採寸データを得る目的で使用するには精度が不十分であり、これらの方法により得られる三次元モデルから、高精度な採寸データを得ることは難しいという問題がある。 However, the three-dimensional models obtained by the methods of Non-Patent Documents 1 and 2 are insufficiently accurate to be used for the purpose of obtaining accurate measurement data for detailed body features, and the three-dimensional models obtained by these methods are There is a problem in that it is difficult to obtain highly accurate measurement data from the original model.
また、非特許文献2のHS-Netsは、理想的な撮影画像を使用できれば、非特許文献1のBodyNetよりも比較的高い精度で三次元モデルを生成できるという利点があるものの、HS-Netsのための理想的な撮影画像を個人が撮影することは困難である。そのため、当該方法により高い精度の三次元モデルを得ることは困難であり、高い精度で採寸データが得られないという問題がある。 Furthermore, although HS-Nets in Non-Patent Document 2 has the advantage of being able to generate a three-dimensional model with relatively higher accuracy than the BodyNet in Non-Patent Document 1, if ideal captured images can be used, HS-Nets It is difficult for an individual to take an ideal photographic image. Therefore, it is difficult to obtain a three-dimensional model with high precision using this method, and there is a problem that measurement data cannot be obtained with high precision.
そのため、撮影された二次元画像に基づいて、より高い精度で採寸を行うことが可能な自動採寸方法が求められている。 Therefore, there is a need for an automatic measuring method that can measure with higher accuracy based on a photographed two-dimensional image.
本発明は、上記問題点に鑑み、対象者の身体特徴を高い精度で採寸する、コンピュータにより実行される身体採寸方法を提供することを課題とする。 SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide a computer-implemented body measurement method that measures a subject's body characteristics with high accuracy.
本発明の第一の態様に係る、対象者の身体を採寸するためのコンピュータにより実行される方法は、
前記対象者の身体に対応する身体領域と、前記身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する画像取得ステップと、
前記撮影画像のそれぞれを変換して、前記撮影画像の身体領域に対応する第1色で表された身体領域と、前記撮影画像の背景領域に対応する第2色が表された背景領域とを含む、前記撮影画像に対応するリファレンス二階調画像をそれぞれ生成する二値化ステップと、
前記リファレンス二階調画像のそれぞれを、モデル生成用画像として定義する定義ステップと、
前記対象者の三次元モデルを出力するモデル出力ステップであって、
体型テンプレートデータと畳み込みニューラルネットワークを使用して、前記モデル生成用画像から、前記対象者の三次元モデルを生成するサブステップと、
前記対象者の三次元モデルに基づいて、前記モデル生成用画像のそれぞれに対応する比較用二階調画像をそれぞれ生成するサブステップと、
前記リファレンス二階調画像の身体領域のそれぞれと、前記比較用二階調画像の身体領域のそれぞれとを比較して、両者の差分値を算出するサブステップと、
前記差分値が所定の閾値より大きい場合、かつ、本モデル出力ステップの実行回数が所定の回数より少ない場合、前記比較用二階調画像を修正し、前記モデル生成用画像を修正された前記比較用二階調画像に変更して、本モデル出力ステップを再度実行するサブステップと
を含む、モデル出力ステップと、
最後に算出された前記差分値が所定の閾値以下であった場合、最後に生成された前記対象者の三次元モデルに基づいて、前記対象者の身体特徴に関連する1つ以上の寸法を測定するステップと
を含む方法である。
A computer-implemented method for measuring the body of a subject according to the first aspect of the invention includes:
an image obtaining step of obtaining at least one captured image including a body region corresponding to the body of the subject and a background region corresponding to a region other than the body region;
Each of the photographed images is converted into a body region represented by a first color corresponding to the body region of the photographed image and a background region represented by a second color corresponding to the background region of the photographed image. a binarization step of generating reference two-tone images corresponding to the photographed images, respectively;
a definition step of defining each of the reference two-tone images as a model generation image;
a model output step of outputting a three-dimensional model of the subject,
a substep of generating a three-dimensional model of the subject from the model generation image using body shape template data and a convolutional neural network;
a substep of generating comparative two-tone images corresponding to each of the model generation images based on the three-dimensional model of the subject;
a substep of comparing each of the body regions of the reference two-tone image and each of the body regions of the comparison two-tone image to calculate a difference value between the two;
If the difference value is larger than a predetermined threshold, and if the number of executions of this model output step is less than a predetermined number of times, the comparison two-tone image is corrected, and the model generation image is changed to the corrected comparison image. A model output step, comprising: a substep of changing to a two-tone image and executing the model output step again;
If the last calculated difference value is less than or equal to a predetermined threshold, one or more dimensions related to the body characteristics of the subject are measured based on the last generated three-dimensional model of the subject. The method includes the steps of:
斯かる構成によれば、対象者の三次元モデルを出力するにあたって、三次元モデルから生成された比較用二階調画像と撮影画像に基づくリファレンス二階調画像との誤差が十分に小さい三次元モデルが得られるまで、三次元モデル生成のベースとなる二階調画像を修正しつつ三次元モデルの生成を繰り返す。これにより、対象者の身体が高い精度でモデリングされた三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 According to such a configuration, when outputting a three-dimensional model of a subject, a three-dimensional model with a sufficiently small error between a comparison two-tone image generated from the three-dimensional model and a reference two-tone image based on a photographed image is generated. The generation of the three-dimensional model is repeated while modifying the two-tone image that is the basis for generating the three-dimensional model. Thereby, the body characteristics of the subject can be measured with high precision based on the three-dimensional model in which the body of the subject is modeled with high precision.
本発明の第二の態様に係る、対象者の身体を採寸するためのコンピュータにより実行される方法は、
前記対象者の身体に対応する身体領域と、前記身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する画像取得ステップと、
前記撮影画像のそれぞれを変換して、前記撮影画像の身体領域に対応する第1色で表された身体領域と、前記撮影画像の背景領域に対応する第2色が表された背景領域とを含む、前記撮影画像と同数のリファレンス二階調画像を生成する二値化ステップと、
体型テンプレートデータと畳み込みニューラルネットワークを使用して、前記リファレンス二階調画像から、前記対象者の三次元モデルを生成するモデル出力ステップと、
を含み、
前記リファレンス二階調画像を生成するステップの前に、前記撮影画像から前記対象者の骨格を推定し、推定された骨格を用いて、前記撮影画像に含まれる前記身体領域の形状を補正するステップ、又は、
前記対象者の三次元モデルを生成するステップの前に、前記撮影画像又は前記リファレンス二階調画像から前記対象者の骨格を推定し、推定された骨格を用いて、前記リファレンス二階調画像に含まれる前記身体領域の形状を補正するステップ
をさらに含む方法である。
A computer-implemented method for measuring the body of a subject according to a second aspect of the invention includes:
an image obtaining step of obtaining at least one captured image including a body region corresponding to the body of the subject and a background region corresponding to a region other than the body region;
Each of the photographed images is converted into a body region represented by a first color corresponding to the body region of the photographed image and a background region represented by a second color corresponding to the background region of the photographed image. a binarization step of generating the same number of reference two-tone images as the captured images;
a model output step of generating a three-dimensional model of the subject from the reference two-tone image using body shape template data and a convolutional neural network;
including;
Before the step of generating the reference two-tone image, estimating the skeleton of the subject from the photographed image and correcting the shape of the body region included in the photographed image using the estimated skeleton; Or
Before the step of generating the three-dimensional model of the subject, the skeleton of the subject is estimated from the photographed image or the reference two-tone image, and the estimated skeleton is used to create a three-dimensional model of the subject included in the reference two-tone image. The method further includes the step of correcting the shape of the body region.
斯かる構成によれば、対象者の三次元モデルを生成するベースとなるリファレンス二階調画像を生成する際に、撮影画像又はその二階調画像に基づいて推定された対象者の骨格に基づいて、撮影画像を取得する際に生じ得る対象者の身体領域の歪みを補正し、三次元モデルの生成に適したリファレンス二階調画像を生成する。これにより、対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 According to such a configuration, when generating a reference two-tone image that is a base for generating a three-dimensional model of a subject, based on the captured image or the skeleton of the subject estimated based on the two-tone image, A reference two-tone image suitable for generating a three-dimensional model is generated by correcting distortion of the subject's body region that may occur when capturing a photographed image. Thereby, a three-dimensional model of the subject can be modeled with high precision, and based on such a three-dimensional model, the physical characteristics of the subject can be measured with high precision.
本発明の第三の態様に係る、対象者の身体を採寸するためのコンピュータにより実行される方法は、
前記対象者の身体に対応する身体領域と、前記身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する画像取得ステップと、
前記撮影画像のそれぞれを変換して、前記撮影画像の身体領域に対応する第1色で表された身体領域と、前記撮影画像の背景領域に対応する第2色が表された背景領域とを含む、前記撮影画像と同数のリファレンス二階調画像を生成する二値化ステップと、
体型テンプレートデータと畳み込みニューラルネットワークを使用して、前記リファレンス二階調画像から、前記対象者の三次元モデルを生成するモデル出力ステップと、
を含み、
前記体型テンプレートデータが、前記対象者の備える1つ以上の属性を備えた人物群より生成された体型テンプレートにより構成されている方法である。
A computer-implemented method for measuring the body of a subject according to a third aspect of the present invention includes:
an image obtaining step of obtaining at least one captured image including a body region corresponding to the body of the subject and a background region corresponding to a region other than the body region;
Each of the photographed images is converted into a body region represented by a first color corresponding to the body region of the photographed image and a background region represented by a second color corresponding to the background region of the photographed image. a binarization step of generating the same number of reference two-tone images as the captured images;
a model output step of generating a three-dimensional model of the subject from the reference two-tone image using body shape template data and a convolutional neural network;
including;
In this method, the body shape template data is composed of body shape templates generated from a group of people having one or more attributes of the subject.
斯かる構成によれば、対象者に近い人物群より生成された体型テンプレートにより構成された体型テンプレートデータを利用することにより、対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 According to such a configuration, a three-dimensional model of the target person can be modeled with high accuracy by using body template data composed of body shape templates generated from a group of people close to the target person. Based on a three-dimensional model, the physical characteristics of the subject can be measured with high accuracy.
本発明の対象者の身体を採寸するためのコンピュータにより実行される方法によれば、対象者の身体特徴を高い精度で採寸することができる。 According to the computer-implemented method for measuring a subject's body according to the present invention, the subject's physical characteristics can be measured with high accuracy.
以下、図面を参照して、本発明の対象者の身体を採寸するためのコンピュータにより実行される方法の実施形態について説明する。ただし、下記の実施形態は、単なる例示である。本発明は、下記の実施形態に何ら限定されない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a computer-implemented method for measuring the body of a subject according to the present invention will be described with reference to the drawings. However, the embodiments described below are merely illustrative. The present invention is not limited to the embodiments described below.
本発明の対象者の身体を採寸するためのコンピュータにより実行される方法は、
前記対象者の身体に対応する身体領域と、前記身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する画像取得ステップと、
前記撮影画像のそれぞれを変換して、前記撮影画像の身体領域に対応する第1色で表された身体領域と、前記撮影画像の背景領域に対応する第2色が表された背景領域とを含む、前記撮影画像に対応するリファレンス二階調画像をそれぞれ生成する二値化ステップと、
前記リファレンス二階調画像のそれぞれを、モデル生成用画像として定義する定義ステップと、
前記対象者の三次元モデルを出力するモデル出力ステップと、
前記対象者の三次元モデルに基づいて、前記対象者の身体特徴に関連する1つ以上の寸法を測定する測定ステップと、を含む。
The computer-implemented method for measuring the body of a subject of the present invention includes:
an image obtaining step of obtaining at least one captured image including a body region corresponding to the body of the subject and a background region corresponding to a region other than the body region;
Each of the photographed images is converted into a body region represented by a first color corresponding to the body region of the photographed image and a background region represented by a second color corresponding to the background region of the photographed image. a binarization step of generating reference two-tone images corresponding to the photographed images, respectively;
a definition step of defining each of the reference two-tone images as a model generation image;
a model output step of outputting a three-dimensional model of the subject;
measuring one or more dimensions associated with a physical characteristic of the subject based on the three-dimensional model of the subject.
本発明の方法の第1の特徴は、対象者の三次元モデルを出力するにあたって、三次元モデルから生成された比較用二階調画像と撮影画像に基づくリファレンス二階調画像との誤差が十分に小さい三次元モデルが得られるまで、必要に応じて三次元モデル生成のベースとなる二階調画像を修正しつつ三次元モデルの生成を繰り返すことにある。
具体的には、本発明の方法の第1の特徴は、
前記対象者の三次元モデルを出力するモデル出力ステップが、
体型テンプレートデータと畳み込みニューラルネットワークを使用して、前記モデル生成用画像から、前記対象者の三次元モデルを生成するサブステップと、
前記対象者の三次元モデルに基づいて、前記モデル生成用画像のそれぞれに対応する比較用二階調画像をそれぞれ生成するサブステップと、
前記リファレンス二階調画像の身体領域のそれぞれと、前記比較用二階調画像の身体領域のそれぞれとを比較して、両者の差分値を算出するサブステップと、
前記差分値が所定の閾値より大きい場合、かつ、本モデル出力ステップの実行回数が所定の回数より少ない場合、前記比較用二階調画像を修正し、前記モデル生成用画像を修正された前記比較用二階調画像に変更して、本モデル出力ステップを再度実行するサブステップと
を含み、
前記測定ステップにおいて使用される対象者の三次元モデルが、前記モデル出力ステップにおいて最後に出力された三次元モデルである。
The first feature of the method of the present invention is that when outputting a three-dimensional model of the subject, the error between the comparison two-tone image generated from the three-dimensional model and the reference two-tone image based on the photographed image is sufficiently small. The purpose is to repeat the generation of the three-dimensional model while modifying the two-tone image, which is the basis of the three-dimensional model generation, as necessary, until the three-dimensional model is obtained.
Specifically, the first feature of the method of the invention is:
a model output step of outputting a three-dimensional model of the subject;
a substep of generating a three-dimensional model of the subject from the model generation image using body shape template data and a convolutional neural network;
a substep of generating comparative two-tone images corresponding to each of the model generation images based on the three-dimensional model of the subject;
a substep of comparing each of the body regions of the reference two-tone image and each of the body regions of the comparison two-tone image to calculate a difference value between the two;
If the difference value is larger than a predetermined threshold, and if the number of executions of this model output step is less than a predetermined number of times, the comparison two-tone image is corrected, and the model generation image is changed to the corrected comparison image. and a substep of changing to a two-tone image and re-executing this model output step,
The three-dimensional model of the subject used in the measurement step is the three-dimensional model finally output in the model output step.
これにより、対象者の身体が高い精度でモデリングされた三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 Thereby, the body characteristics of the subject can be measured with high precision based on the three-dimensional model in which the body of the subject is modeled with high precision.
本発明の方法の第2の特徴は、撮影画像を取得する際に生じ得る対象者の身体領域の歪みを補正することである。
具体的には、本発明の方法の第2の特徴は、
前記二値化ステップの前に、前記撮影画像から前記対象者の骨格を推定し、推定された骨格を用いて、前記撮影画像に含まれる前記身体領域の形状を補正する撮影画像補正ステップ、又は、
前記定義ステップの前に、前記撮影画像又は前記リファレンス二階調画像から前記対象者の骨格を推定し、推定された骨格を用いて、前記リファレンス二階調画像に含まれる前記身体領域の形状を補正する二階調画像補正ステップを含む。
A second feature of the method of the present invention is to correct distortions of the subject's body region that may occur when capturing captured images.
Specifically, the second feature of the method of the invention is:
Before the binarization step, a photographed image correction step of estimating the skeleton of the subject from the photographed image and correcting the shape of the body region included in the photographed image using the estimated skeleton, or ,
Before the defining step, the skeleton of the subject is estimated from the photographed image or the reference two-tone image, and the shape of the body region included in the reference two-tone image is corrected using the estimated skeleton. It includes a two-tone image correction step.
これにより、対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 Thereby, a three-dimensional model of the subject can be modeled with high precision, and based on such a three-dimensional model, the physical characteristics of the subject can be measured with high precision.
本発明の方法の第3の特徴は、前記体型テンプレートデータが、前記対象者の備える1つ以上の属性を備えた人物群より生成された体型テンプレートにより構成されていることである。 A third feature of the method of the present invention is that the body shape template data is composed of body shape templates generated from a group of people having one or more attributes of the subject.
これにより、対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 Thereby, a three-dimensional model of the subject can be modeled with high precision, and based on such a three-dimensional model, the physical characteristics of the subject can be measured with high precision.
本発明の方法は、これらの第1~第3の特徴をそれぞれ単独で備えていてもよく、これらの特徴の任意の組み合わせを備えていてもよい。本発明の方法がこれらの第1~第3の特徴を複数組み合わせて備えている場合には、対象者の身体特徴をより高い精度で採寸することが可能になる。 The method of the present invention may have each of these first to third features alone, or may have any combination of these features. When the method of the present invention includes a combination of a plurality of these first to third characteristics, it becomes possible to measure the physical characteristics of the subject with higher accuracy.
図1は、本発明のコンピュータにより実行される身体採寸方法の実施形態である方法1を示す。本実施形態の方法は、上述の本発明の第1~第3の特徴を備えている。
方法1は、例えば、後述するコンピュータシステム3によって実行され得る。
FIG. 1 shows Method 1, which is an embodiment of the computer-implemented body measurement method of the present invention. The method of this embodiment has the first to third features of the present invention described above.
Method 1 can be executed, for example, by computer system 3, which will be described below.
本方法1では、まず、ステップ11において、対象者の身体に対応する身体領域と、身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する(画像取得ステップ)。 In this method 1, first, in step 11, at least one captured image including a body region corresponding to the subject's body and a background region corresponding to a region other than the body region is acquired (image acquisition step).
具体的には、本ステップ11では、後のモデル出力ステップ14にて行われるモデル生成のために要求される1つ以上の身体の向き及び姿勢について、それぞれに対応する撮影画像が取得される。本実施形態では、一般的に「Aポーズ」と呼ばれるニュートラルな姿勢の対象者を正面から撮影した撮影画像(正面撮影画像)と、該対象者を側面から撮影した撮影画像(側面撮影画像)とを含む、2つの撮影画像が取得される。
Specifically, in this step 11, photographed images corresponding to one or more body orientations and postures required for model generation to be performed in the later
本ステップ11は、撮影に使用されるコンピュータが備えた、あるいは該コンピュータに接続されたカメラによって、対象者が撮影されることにより取得され得る。 This step 11 can be obtained by photographing the subject with a camera included in or connected to a computer used for photographing.
ここで、撮影に使用されるコンピュータ又はカメラが、撮影画像の歪みを補正する機能を有している場合には、その機能を使用して歪み補正された撮影画像を取得することが望ましい。
例えば、撮影に使用されるコンピュータ又はカメラが傾きセンサを備えている場合には、その傾きデータを使用して歪み処理を行ってもよい。例えば、被写体である対象者が撮影される際のカメラの傾きによって生じる身体領域の上下寸法の歪みが、傾きデータに基づいて補正され得る。
Here, if the computer or camera used for photographing has a function of correcting the distortion of the photographed image, it is desirable to use that function to obtain the photographed image with the distortion corrected.
For example, if a computer or camera used for photographing is equipped with a tilt sensor, distortion processing may be performed using the tilt data. For example, distortion in the vertical dimensions of a body region caused by the tilt of a camera when a subject is photographed can be corrected based on the tilt data.
また、撮影に使用されるコンピュータ又はカメラが深度センサを備えている場合には、撮影時に被写体の深度データを取得しておくことが好ましい。深度データに基づいて得られる奥行情報に基づいて、予め取得されていた対象者の身長等の身体情報に大きな誤差がないかを確認することができる。さらに、奥行情報は、後の二値化ステップ12において身体領域と背景領域とを区別する際に、両者の境界を高い精度で判別するためにも使用され得る。
Furthermore, if the computer or camera used for photographing is equipped with a depth sensor, it is preferable to acquire depth data of the subject at the time of photographing. Based on the depth information obtained based on the depth data, it is possible to check whether there are any large errors in the physical information such as the height of the subject that has been acquired in advance. Further, the depth information can also be used to accurately determine the boundary between the body region and the background region when distinguishing them in the
次に、ステップ12において、撮影画像のそれぞれを変換して、撮影画像の身体領域に対応する第1色で表された身体領域と、撮影画像の背景領域に対応する第2色が表された背景領域とを含む、撮影画像に対応するリファレンス二階調画像をそれぞれ生成する(二値化ステップ)。
Next, in
本ステップ12において行われる撮影画像の二値化変換によって、生成された二階調画像内において、身体領域及び背景領域に含まれていたディテールが省略されると共に、身体領域と背景領域とが明確に区別されるようになる。このようにして生成された二階調画像では、対象者の身体に対応する身体領域が、背景領域から明確に分離されているため、後のモデル出力ステップ15にてモデル生成を行う際に、対象者の身体に対応する身体領域を認識し易くなる。
なお、本ステップ11によって得られた二階調画像は、後のモデル出力ステップ15において生成された三次元モデルの正確さを確認するためのリファレンス画像(リファレンス二諧調画像)として利用されることになる。
By the binarization conversion of the photographed image performed in
Note that the two-tone image obtained in this step 11 will be used as a reference image (reference two-tone image) for confirming the accuracy of the three-dimensional model generated in the later
本ステップ12では、前述の画像取得ステップ11にて取得された1つ以上の撮影画像のそれぞれについて二値化変換を行い、それぞれに対応する二階調画像を生成する。本実施形態では、画像取得ステップ11にて取得された正面撮影画像と側面撮影画像とをそれぞれ二値化して、リファレンス正面二階調画像とリファレンス側面二階調画像とが生成される。
In this
本ステップ12における撮影画像の二値化変換は、従来公知の任意の方法により実行され得る。そのような方法としては、大域コントラスト正規化(GCN)、セマンティックセグメンテーション、インスタンスセグメンテーション(例えば、DeepMask)等のディープラーニング技術を用いた二値化手法を採用することができる。これらの方法は、単独で採用されてもよく、複数組み合わせて採用されてもよい。
The binarization conversion of the captured image in
リファレンス二諧調画像内において身体領域及び背景領域をそれぞれ表す第1色及び第2色は互いに異なる色であればよく、それらの領域の境界の区別が容易となる、色彩やコントラストが大きく異なる色であることが好ましい。通常、第1色及び第2色は、白及び黒から選択され、第1色が白かつ第2色が黒であってもよく、逆であってもよい。 The first and second colors representing the body region and the background region, respectively, in the reference two-tone image may be different from each other, and they may be colors with significantly different colors or contrasts that make it easy to distinguish the boundaries of these regions. It is preferable that there be. Typically, the first color and the second color are selected from white and black, and the first color may be white and the second color may be black, or vice versa.
次に、ステップ13において、撮影画像又はリファレンス二階調画像から対象者の骨格を推定し、推定された骨格を用いて、リファレンス二階調画像に含まれる身体領域の形状を補正する(二階調画像補正ステップ)。本ステップ13は、本発明の上記第2の特徴に対応する。
Next, in
具体的には、本ステップ13では、撮影画像又はリファレンス二階調画像に含まれる身体領域における対象者の骨格を推定し、推定された骨格に基づいて、後のモデル出力ステップ15にて行われるモデル生成に適した画像となるように、リファレンス二階調画像をそれぞれ補正する。
対象者の骨格の推定は、通常は二値化変換された後のリファレンス二階調画像に基づいて行われるが、対象者の骨格を十分な精度で推定できるのであれば、二値化変換される前の撮影画像に基づいて行われてもよい。
Specifically, in this
Estimation of the subject's skeleton is usually performed based on a reference two-tone image that has been subjected to binarization conversion, but if the subject's skeleton can be estimated with sufficient accuracy, it can be binarized. It may be performed based on a previously captured image.
対象者の骨格を推定する方法は、特に限定されず、OpenPose、PoseNet等の二次元骨格推定法や、三次元骨格推定法など、従来公知の任意の骨格推定方法を採用することができる。 The method for estimating the subject's skeleton is not particularly limited, and any conventionally known skeleton estimation method can be employed, such as a two-dimensional skeleton estimation method such as OpenPose or PoseNet, or a three-dimensional skeleton estimation method.
リファレンス二階調画像に含まれる身体領域の形状の補正は、例えば、身体領域の撮影画像又はリファレンス二諧調画像の身体領域に表される姿勢を、後のモデル出力ステップ15にて行われるモデル生成に適した姿勢となるよう補正することによって行われる。例えば、対象者の身体の歪み等の原因により、撮影される際に対象者がモデル生成に適した姿勢を取れず、身体領域に表される対象者の姿勢において、一方の肩が他方の肩よりも下がっていたり、首が曲がっていたりすることがある。このような場合に、推定された骨格に基づいて、モデル生成に適した姿勢を表す骨格となるようにリファレンス二諧調画像の身体領域を補正することが考えられる。
The shape of the body region included in the reference two-tone image can be corrected by, for example, correcting the captured image of the body region or the posture expressed in the body region of the reference two-tone image in model generation performed in the
なお、本実施形態では、骨格の推定及びそれに続く歪み補正は、二階調画像補正ステップ13にてリファレンス二階調画像に対して行っているが、この二階調画像補正ステップ13に代えて又はこれに加えて、二値化する前の撮影画像に対して骨格の推定及びそれに続く歪み補正を行ってもよい。
具体的には、本実施形態の方法1は、二階調画像補正ステップ13に代えて又はこれに加えて、撮影画像から対象者の骨格を推定し、推定された骨格を用いて、撮影画像に含まれる身体領域の形状を補正するステップ13Aを含んでいてもよい(撮影画像補正ステップ)。この撮影画像補正ステップ13Aは、二値化ステップ12の後に行われる二階調画像補正ステップ13とは異なり、二値化ステップ12の前に行われる。
Note that in this embodiment, the skeleton estimation and subsequent distortion correction are performed on the reference two-tone image in the two-tone
Specifically, in method 1 of the present embodiment, instead of or in addition to the two-tone
次に、ステップ14において、リファレンス二階調画像のそれぞれを、モデル生成用画像として定義する(定義ステップ)。
Next, in
本ステップ14では、次のモデル出力ステップ15において対象者の三次元モデルを最初に生成する際に使用される画像として、二諧調画像補正ステップ13にて補正されたリファレンス二階調画像のそれぞれを、最初のモデル生成用画像として定義している。本実施形態では、モデル生成用正面画像とモデル生成用側面画像の2つが生成される。
In this
次に、ステップ15において、対象者の三次元モデルを出力する(モデル出力ステップ)。
Next, in
上記の通り、本実施形態は、本ステップ15において、三次元モデルから生成された比較用二階調画像と撮影画像に基づくリファレンス二階調画像との誤差が十分に小さい三次元モデルが得られるまで、三次元モデル生成のベースとなる二階調画像を修正しつつ三次元モデルの生成を繰り返す、本発明の上記第1の特徴を備えている。
本ステップ15は、図2に示されるサブステップ21~24を含み、必要に応じてこれらを繰り返すことによって、高い精度の三次元モデルを生成することができる。これらのサブステップ21~24について、以下に詳細に説明する。
As described above, in this embodiment, in this
This
本実施形態のモデル出力ステップ15では、まず、サブステップ21において、体型テンプレートデータと畳み込みニューラルネットワークを使用して、二次元画像であるモデル生成用画像から、対象者の三次元モデルを生成する(モデル生成サブステップ)。
In the
本サブステップ21では、体型テンプレートデータと畳み込みニューラルネットワークを使用した三次元モデル生成方法として、例えば、上記特許文献2に記載されるHS-Netsを使用することができる。HS-Netsを使用した三次元モデリングでは、体型テンプレートデータに基づいて、正面及び側面から撮影された対象者に対応する身体領域をそれぞれ含むモデル生成用正面画像及びモデル生成用側面画像から、それらの画像に含まれる対象者の向き及び姿勢に対応する三次元モデルを、それぞれ直接生成することができる。 In this sub-step 21, for example, HS-Nets described in Patent Document 2 can be used as a three-dimensional model generation method using body template data and a convolutional neural network. In three-dimensional modeling using HS-Nets, based on the body shape template data, the front image for model generation and the side image for model generation, which include body regions corresponding to the subject photographed from the front and side, respectively, are extracted. A three-dimensional model corresponding to the orientation and posture of the subject included in the image can be directly generated.
体型テンプレートデータは、所定の人物群より生成された学習済みデータである。具体的には、体型テンプレートデータは、所定の人物群から取得された複数の身体の三次元スキャンデータから、機械学習を使用して作成されたテンプレートメッシュであり得る。
このとき、三次元スキャンデータが機械学習に供される前に、生の三次元スキャンデータが前処理され、さらに前処理された三次元スキャンデータに手動で複数の特徴点(ランドマーク)が指定されることが望ましい。ここで行われ得る前処理には、例えば、三次元スキャンデータ内のノイズ成分の除去や欠落部分の手動修正、及び、三次元スキャンデータの表面のスムージング処理が含まれる。
The body shape template data is learned data generated from a predetermined group of people. Specifically, the body shape template data may be a template mesh created using machine learning from three-dimensional scan data of a plurality of bodies acquired from a predetermined group of people.
At this time, before the 3D scan data is subjected to machine learning, the raw 3D scan data is preprocessed, and multiple feature points (landmarks) are manually specified on the preprocessed 3D scan data. It is desirable that Preprocessing that may be performed here includes, for example, removing noise components in the three-dimensional scan data, manually correcting missing parts, and smoothing the surface of the three-dimensional scan data.
本実施形態は、上述の本発明の第3の特徴として、体型テンプレートデータが、対象者の備える1つ以上の属性を備えた人物群より生成された体型テンプレートにより構成されているといった特徴を有している。ここで、対象者の備える1つ以上の属性とは、対象者の人種、国籍、年齢、性別、体組成値、BMI等の体型等であり、例えば、対象者の人種又は国籍である。
一般的なHS-Netsは、広範囲の人物の体型をモデル化するため、偏りの少ない広い範囲の人物のデータから学習された体型テンプレートを使用するが、広い範囲の人物像を対象としてモデル生成できる代償として、十分な精度が得られないといった問題があった。本実施形態では、体型テンプレートとして、対象者と人種や国籍が同じ等、体型の傾向が対象者に近い人物群より生成されたものを利用することにより、そのような用途に絶え得る高精度なモデルを生成することが可能になる。
The third feature of this embodiment of the present invention is that the body shape template data is composed of body shape templates generated from a group of people having one or more attributes of the subject. are doing. Here, one or more attributes of the target person include the target person's race, nationality, age, gender, body composition value, body shape such as BMI, etc., for example, the target person's race or nationality. .
Typical HS-Nets models a wide range of human body shapes, so they use body templates learned from data on a wide range of people with little bias, but models can be generated for a wide range of human figures. As a trade-off, there was the problem that sufficient accuracy could not be obtained. In this embodiment, by using a body shape template generated from a group of people whose body shape tendency is similar to the target person, such as the same race or nationality as the target person, high precision that can be used for such purposes is achieved. It becomes possible to generate a model.
本サブステップ21にて生成される三次元モデルは、例えば、10,000枚程度のポリゴンによって構成される。もっとも、三次元モデルを構成するポリゴン数は特に限定されず、要求される計算資源及び求められる三次元モデルにおける曲線のスムーズさによって、適宜決定され得る。 The three-dimensional model generated in this sub-step 21 is composed of, for example, about 10,000 polygons. However, the number of polygons constituting the three-dimensional model is not particularly limited, and can be determined as appropriate depending on the required computational resources and the required smoothness of the curve in the three-dimensional model.
次に、サブステップ22において、対象者の三次元モデルに基づいて、モデル生成用画像のそれぞれに対応する比較用二階調画像をそれぞれ生成する(比較用画像生成サブステップ)。 Next, in sub-step 22, two-tone comparison images corresponding to each of the model generation images are generated based on the three-dimensional model of the subject (comparison image generation sub-step).
具体的には、本サブステップ22では、モデル生成用画像の身体領域に表される対象者の身体の姿勢及び向きのそれぞれについて、比較用二階調画像をそれぞれ生成する。これらの比較用二階調画像は、続く画像比較サブステップ23においてリファレンス二階調画像との比較を行う画像であり、リファレンス二階調画像内に含まれる身体領域に対応する姿勢及び向きを備えた対象者の三次元モデルに対応する身体領域と、身体領域以外の領域に対応する背景領域とを含む。比較用二階調画像に含まれる身体領域及び背景領域はそれぞれ、リファレンス二階調画像に含まれる身体領域及び背景領域と同一の第1色及び第2色によって表される。
Specifically, in this sub-step 22, comparative two-tone images are generated for each of the postures and orientations of the subject's body represented in the body region of the model generation image. These comparison two-tone images are images to be compared with the reference two-tone image in the subsequent
本実施形態では、HS-Netsを使用して三次元モデルを生成しているため、前述のモデル生成サブステップ21において、モデル生成用正面画像に含まれる身体領域に対応する姿勢及び向きを有する正面三次元モデルと、モデル生成用側面画像に含まれる身体領域に対応する姿勢及び向きを有する側面三次元モデルがそれぞれ生成されている。そのため、本実施形態では、これら正面三次元モデル及び側面三次元モデルを二値化することによって、リファレンス二階調画像内に含まれる身体領域に対応する姿勢及び向きを備えた比較用正面二階調画像及び比較用側面二階調画像を生成することができる。
In this embodiment, since the three-dimensional model is generated using HS-Nets, in the
次に、サブステップ23において、リファレンス二階調画像の身体領域のそれぞれと、比較用二階調画像の身体領域のそれぞれとを比較して、両者の差分値を算出する(比較サブステップ)。 Next, in sub-step 23, each of the body regions of the reference two-tone image and each of the body regions of the comparison two-tone image are compared to calculate a difference value between the two (comparison sub-step).
本サブステップ23における画像の比較及び差分値の算出は、例えば、リファレンス二階調画像と比較用二階調画像とをそれぞれ重ね合わせることによって行うことができる。その際、2つの画像の差分をより正確に測定するために、リファレンス二階調画像内の身体領域と比較用二階調画像内の身体領域とが重なり合わない領域の面積が最小になるように、2つの画像を調節して重ね合わせた上で、差分値を算出することが望ましい。
例えば、2つの画像の位置を調節する際に、これらに含まれる身体領域の縦方向(身長方向)をフィッティングさせるように調節してから、重ね合わせることが望ましい。また、身体領域における手足の開き方の影響を低減又は削除するように2つの画像を調整したり、身体領域の胴部及び脚部の長さを、前述のステップ13(又はステップ13A)により推定された骨格に基づいて補正してから、重ね合わせを行ってもよい。
また、
The comparison of images and the calculation of the difference value in this sub-step 23 can be performed, for example, by superimposing the reference two-tone image and the comparison two-tone image, respectively. At this time, in order to more accurately measure the difference between the two images, the area of the area where the body area in the reference two-tone image and the body area in the comparison two-tone image do not overlap is minimized. It is desirable to calculate the difference value after adjusting and overlapping the two images.
For example, when adjusting the positions of two images, it is desirable to adjust the vertical direction (height direction) of the body regions included in these images so as to fit them, and then superimpose them. In addition, the two images may be adjusted to reduce or eliminate the influence of the way the limbs are spread in the body region, and the lengths of the torso and legs in the body region may be estimated by step 13 (or step 13A) described above. The superimposition may be performed after correction based on the obtained skeleton.
Also,
2つの画像を比較して算出される差分値は、例えば、2つの画像の身体領域の距離の差を算出し、その差を積分することによって、決定することができる。 The difference value calculated by comparing two images can be determined, for example, by calculating the difference in distance between the body regions of the two images and integrating the difference.
本サブステップ23では、2つの画像が全体的に比較されて、1つの差分値が算出されてもよく、2つの画像内の特定の領域毎に比較されて、複数の差分値が算出されてもよい。例えば、差分値は、複数の身体領域における予め定められた複数の身体部位について、それぞれ算出されてもよい。例えば、2つの画像の比較によって、身体部位の胸部、胴部、右腕、左腕、右足、左足、・・・等のそれぞれについての差分値が算出されてもよい。 In this sub-step 23, the two images may be compared as a whole to calculate one difference value, or each specific region within the two images may be compared to calculate a plurality of difference values. Good too. For example, the difference value may be calculated for each of a plurality of predetermined body parts in a plurality of body regions. For example, by comparing two images, difference values may be calculated for each of the body parts such as the chest, torso, right arm, left arm, right leg, left leg, etc.
次に、サブステップ24において、差分値が所定の閾値より大きい場合、かつ、本モデル出力ステップ15の実行回数が所定の回数より少ない場合、比較用二階調画像を修正し、モデル生成用画像を修正された比較用二階調画像に変更する(画像修正サブステップ)。
Next, in sub-step 24, if the difference value is larger than a predetermined threshold, and if the number of executions of this
具体的には、本サブステップ24では、前述の比較サブステップ23にて算出された差分値が所定の閾値以下である場合、本モデル出力ステップ15を終了し、次の測定ステップ15へと移行する。一方、前述の比較サブステップ23にて算出された差分値が所定の閾値より大きい場合、換言すれば、リファレンス二階調画像と比較用二階調画像との差異が大きく、モデル生成サブステップ21により生成された三次元モデルが対象者の身体を十分に正確に表していない場合には、別のモデル生成用画像を使用して本モデル出力ステップ15を再度実行するために、比較用二階調画像を修正し、モデル生成用画像を修正された比較用二階調画像に変更する。
Specifically, in this sub-step 24, if the difference value calculated in the above-mentioned
上記所定の閾値は、生成される三次元モデルの所望の精度に応じて、任意に決定され得る。
なお、複数の差分値が算出されている場合には、複数の差分値のうち少なくとも1つの差分値が所定の閾値より大きければ本モデル出力ステップ15を再度実行する判断を行ってもよく、複数の差分値の平均が所定の閾値より大きい場合に本モデル出力ステップ15を再度実行する判断を行ってもよい。また、画像内における差分値が算出された複数の領域ごとに、それぞれ異なる閾値が定められており、それらの領域ごとに差分値と閾値との比較が行われてもよい。
The predetermined threshold value may be arbitrarily determined depending on the desired accuracy of the three-dimensional model to be generated.
In addition, when a plurality of difference values are calculated, if at least one difference value among the plurality of difference values is larger than a predetermined threshold value, it may be determined that the present
もっとも、使用されるリファレンス二階調画像によっては、本モデル出力ステップ15を多くの回数繰り返しても差分値が所定の閾値以下とならず、もはやその期待もできないと考えられる場合もあり得る。そのような状況となった際に本ステップ15の繰り返しを停止するため、本サブステップ24では、前述の比較サブステップ23にて算出された差分値が所定の閾値より大きい場合であっても、本モデル出力ステップ15の実行回数が所定の回数に達した場合には、本モデル出力ステップ15の繰り返しを終了し、次の測定ステップ15へと移行する。
ここで、本ステップ15の繰り返しの終了を決定するために設定される本ステップ15の所定の実行回数は、三次元モデルの生成のために許容される計算資源や所要時間に応じて、任意に決定される。また、繰り返しをできる限り停止させたくない場合には、所定の実行回数を十分に大きい値(例えば、設定可能な最大の値)に設定しておけばよい。
However, depending on the reference two-tone image used, there may be cases in which the difference value does not become less than the predetermined threshold even if this
Here, the predetermined number of executions of this
比較用二階調画像は、任意の方法によって修正されてもよい。例えば、比較用二階調画像の修正は、比較用二階調画像から、差分値に基づいて推定されるノイズ成分を除去することによって行うことができる。
あるいは、比較用二階調画像の修正は、比較用二階調画像の寸法を補正することによって行うこともできる。ここで、寸法の補正は、比較用二階調画像全体に対して行われてもよく、比較用二階調画像内の身体領域における1つ以上の特定の身体部位に対して行われてもよい。例えば、前述の比較サブステップ23において、対象者の右腕に対応する身体領域に関して比較され、算出された差分値が比較的大きい場合に、比較用二階調画像内の身体領域の右腕に対応する領域の寸法を、リファレンス画像に近づくように大きく又は小さく補正してもよい。
なお、ここに挙げた方法は、単独で行われてもよく、複数の方法を組み合わせて行われてもよい。
The comparative two-tone image may be modified by any method. For example, the comparison two-tone image can be corrected by removing noise components estimated based on the difference values from the comparison two-tone image.
Alternatively, the comparison two-tone image can be modified by correcting the dimensions of the comparison two-tone image. Here, the dimension correction may be performed on the entire comparison two-tone image, or may be performed on one or more specific body parts in the body region within the comparison two-tone image. For example, in the
Note that the methods listed here may be performed alone or in combination of a plurality of methods.
本サブステップ24において比較用二階調画像の修正を行った後、修正された比較用二階調画像を、新たなモデル生成用画像として設定して、本モデル出力ステップ15を再度実行する。再度実行されたモデル出力ステップ15は、再びサブステップ21から始まり、この新たに設定されたモデル生成用画像から新たな三次元モデルを生成して、これをサブステップ22~24において評価する。
After the comparison two-tone image is corrected in this sub-step 24, the corrected comparison two-tone image is set as a new model generation image, and the main
このようにして、本モデル出力ステップ15では、生成される三次元モデルが撮影された対象者の身体を所望の精度で正確に表していることが確認できるまで、三次元モデルの生成に使用するモデル生成用語画像を変更して三次元モデルの生成を繰り返す。その結果、本実施形態の方法1は、高い精度の三次元モデルを生成することができる。
In this way, in this
その後、ステップ16において、最後に算出された差分値が所定の閾値以下であった場合、最後に生成された対象者の三次元モデルに基づいて、対象者の身体特徴に関連する1つ以上の寸法を測定する(測定ステップ)。
Then, in
本ステップ16において測定される、対象者の身体特徴に関連する寸法とは、対象者の任意の身体部位に関連する、長さ、高さ、周長等の任意の寸法であってもよく、例えば、対象者の身体にフィットする衣装サイズの寸法として測定されてもよい。当該寸法は、例えば、対象者の肩幅、胸囲、胴囲、首回り、腕回り、腰回り、手首回り、太腿回り、ウエスト、ヒップ、背丈、袖丈、裄丈、股上長、股下長等であり得る。
The dimensions related to the physical characteristics of the subject measured in this
なお、当該寸法を測定するにあたり、予め取得されていた対象者の身体情報を参照してもよい。例えば、対象者の身長の値が予め与えられていた場合には、当該寸法は、対象者の三次元モデルの身長との比率に基づいて計算することができる。 Note that when measuring the dimensions, reference may be made to the physical information of the subject that has been acquired in advance. For example, if the value of the height of the subject is given in advance, the dimension can be calculated based on the ratio of the height of the subject to the three-dimensional model.
以上のように、本実施形態の方法1では、対象者の三次元モデルを出力するモデル出力ステップ15が、三次元モデルから生成された比較用二階調画像と撮影画像に基づくリファレンス二階調画像との誤差が十分に小さい三次元モデルが得られるまで、必要に応じてサブステップ21~24を繰り返すこと(第1の特徴)によって、対象者の身体が高い精度でモデリングされた三次元モデルを出力することができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。
As described above, in the method 1 of the present embodiment, the
さらに、本実施形態の方法1では、二値化ステップ12の後に、二階調画像補正ステップ13を実行し、撮影画像を取得する際に生じ得る対象者の身体領域の歪みを補正すること(第2の特徴)によって、モデル出力ステップ15において対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。
Furthermore, in method 1 of the present embodiment, after the
さらに、本実施形態の方法1では、体型テンプレートデータが、対象者の備える1つ以上の属性を備えた人物群より生成された体型テンプレートにより構成されていること(第3の特徴)によって、モデル出力ステップ15において対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。
Furthermore, in method 1 of the present embodiment, the body shape template data is composed of body shape templates generated from a group of people having one or more attributes of the subject (third feature). In the
これにより、対象者の三次元モデルを高い精度でモデリングすることができ、そのような三次元モデルに基づいて、対象者の身体特徴を高い精度で採寸することができる。 Thereby, a three-dimensional model of the subject can be modeled with high precision, and based on such a three-dimensional model, the physical characteristics of the subject can be measured with high precision.
図3は、図1に示される身体採寸方法を実行可能なコンピュータを含むシステム3の一実施形態を示す。
なお、図1で示される身体採寸方法は、必ずしもシステム3によって実行される必要はなく、任意のコンピュータシステムによって実行され得る。
FIG. 3 shows one embodiment of a system 3 that includes a computer capable of performing the body measurement method shown in FIG.
Note that the body measurement method shown in FIG. 1 does not necessarily need to be executed by the system 3, but can be executed by any computer system.
システム3は、図1に示される身体採寸方法を実行するコンピュータとして、ユーザ端末31と、サーバ32とを備えている。
The system 3 includes a user terminal 31 and a
ユーザ端末31は、対象者又はその他の者によってサーバ32から離れた位置にて操作され、サーバ32とネットワークを介してデータを送受信可能な任意の端末であり得る。例えば、ユーザ端末1は、デスクトップコンピュータ、モバイルコンピュータ、タブレットコンピュータ、携帯電話、スマートフォン、ウェアラブルデバイス、ハンドヘルドデバイス、任意の組み込みデバイス等であってもよい。
The user terminal 31 may be any terminal operated by the subject or another person at a location remote from the
サーバ32は、ユーザ端末31よりネットワークを介して送信されたデータをコンピューティング処理可能な任意のサーバであり得る。例えば、サーバ32は、1つ又は複数のコンピュータ資源によって構成されたオンプレミスのサーバであってもよく、クラウドネットワーク上で実現されるクラウドサーバであってもよい。
The
ユーザ端末31及びサーバ32は、ネットワークを介して両者の間でデータを送受信することによって、以下に詳細に説明される本発明の身体採寸方法において実行される各ステップを、任意に分担して実行することができる。
例えば、ユーザ端末31では、対象者の撮影等、対象者の近くで取得可能なデータを取得するためのステップや、計算負荷の比較的小さい処理を行うステップを実行する一方で、通常ユーザ端末2よりも計算資源の豊富なサーバ32において、計算負荷の大きい処理を行うステップを実行してもよい。
By transmitting and receiving data between the user terminal 31 and the
For example, while the user terminal 31 executes steps for acquiring data that can be obtained near the subject, such as photographing the subject, and steps that perform processing with a relatively low computational load, the user terminal 31 The step of performing processing with a large calculation load may be executed in the
具体的には、本実施形態のシステム3では、ユーザ端末31は、画像取得モジュール311と、二値化モジュール312と、通信モジュール310とを備えている。ユーザ端末31は、さらに、カメラ315と、深度センサ316とを備えている。
画像取得モジュール311は、上述の画像取得ステップ11を実行するように構成されており、具体的には、ユーザ端末に備えられたカメラ315によって、撮影画像を取得するように構成されている。また、画像取得モジュール311は、深度センサ316により取得された深度データを利用して、撮影画像に対して歪み補正処理を行うようにも構成されている。
二値化モジュール312は、上述の二値化ステップ12を実行するように構成されている。
通信モジュール310は、サーバ32の通信モジュール320とデータを送受信するように構成されており、一例として、二値化モジュール312により生成されたリファレンス二階調画像を、以降の処理をサーバ32上で行うために、サーバ32の通信モジュール320へと送信する。
Specifically, in the system 3 of this embodiment, the user terminal 31 includes an image acquisition module 311, a binarization module 312, and a
The image acquisition module 311 is configured to execute the image acquisition step 11 described above, and specifically, is configured to acquire a captured image by a
The binarization module 312 is configured to perform the
The
また、サーバ32は、通信モジュール320と、二階調画像補正モジュール323と、定義モジュール324と、モデル出力モジュール325と、測定モジュール326とを備えている。
通信モジュール320は、ユーザ端末31の通信モジュール310とデータを送受信するように構成されており、一例として、ユーザ端末31の通信モジュール310から送信されたリファレンス二階調画像を受信する。
二階調画像補正モジュール323は、上述の二階調画像補正ステップ13を実行するように構成されている。
定義モジュール324は、上述の定義ステップ14を実行するように構成されている。
モデル出力モジュール325は、上述のモデル出力ステップ15を実行するように構成されている。
測定モジュール326は、上述の測定ステップ16を実行するように構成されている。
The
The communication module 320 is configured to transmit and receive data to and from the
The two-tone
ここで、モデル出力モジュール325は、図4に示されるように、モデル生成サブモジュール421と、比較用画像生成サブモジュール422と、比較サブモジュール423と、画像修正サブモジュール424とを備えている。
これらのサブモジュール421~424は、上述のサブステップ21~24をそれぞれ実行するように構成されている。
Here, the
These sub-modules 421-424 are configured to perform the above-described sub-steps 21-24, respectively.
上記のように、本実施形態のシステム3では、ユーザ端末31が、本発明の方法1に含まれる各ステップのうち、対象者から撮影画像を取得し得る画像取得ステップ11、及び、計算負荷の比較的小さい二値化ステップ12を実行するように構成されている一方で、サーバ32において、計算負荷の大きい二階調画像補正ステップ13及びモデル出力ステップ15を実行するように構成されている。
したがって、本実施形態のシステム3は、ユーザ端末31とサーバ32との間で計算負荷を効率的に分散することができる。
As described above, in the system 3 of the present embodiment, the user terminal 31 performs, among the steps included in the method 1 of the present invention, the image acquisition step 11 in which a photographed image can be acquired from the subject and the calculation load. While the
Therefore, the system 3 of this embodiment can efficiently distribute the calculation load between the user terminal 31 and the
なお、本実施形態のシステム3では、二階調画像補正ステップ13を実行するように構成された二階調画像補正モジュール323が、サーバ32に備えられているが、これに代えて又はこれに加えて、ユーザ端末31がステップ13Aを実行するように構成されたモジュール313(図示せず)を備えていてもよい。
Note that in the system 3 of the present embodiment, the
図5は、本発明の方法の画像取得ステップにおいて(例えば、上記実施形態のステップ11において)取得される撮影画像を撮影する際に使用されるアプリケーション5上に表示される撮影画面50の例を示す。アプリケーション5は、例えば、システム3のユーザ端末31上において動作し得る。以下では、ユーザ端末31はスマートフォンであり、アプリケーション5がスマートフォンアプリであることを前提として説明する。
FIG. 5 shows an example of a photographing
図5(a)及び(b)に示されるように、アプリケーション5の撮影画面50には、撮影に要求される対象者の姿勢及び向きに対応するガイド枠51が表示されている。ここで、図5(a)及び(b)に示される当該姿勢はAポーズであり、図5(a)に示される当該向きは正面向き、図5(b)に示される当該向きは側方向きである。
As shown in FIGS. 5A and 5B, a
撮影者がアプリケーション5を用いて対象者を撮影する際、撮影画面50上には、アプリケーションが動作するユーザ端末31に設けられるカメラ315のレンズに映った映像が表示され、ガイド枠51は、その映像と重なるように撮影画面50上に表示され続ける。
撮影者は、被写体である対象者の身体を撮影する際に、対象者の身体がガイド枠51の枠内に概ね収まるように、カメラ315(及び、必要であれば、カメラ315が設けられているユーザ端末31)の向き、対象者までの距離、レンズに映って撮影画面50上に表示されている映像の撮影画面50上における拡大率等を調節する。このような調節によって撮影画面50上において対象者の身体がガイド枠51の枠内に十分に収まるようになってから、撮影者は対象者の身体を撮影する。
When the photographer uses the
When photographing the body of the subject, the photographer uses the camera 315 (and if necessary, the
このように、アプリケーション5の撮影画面50に表示されたガイド枠51によって、後のモデル出力ステップ(例えば、ステップ15)にて要求される姿勢及び向きの対象者を容易に撮影することができるため、モデル生成に適した歪みの少ない撮影画像を容易に取得することができる。
In this way, the
アプリケーション5は、撮影者が対象者を撮影する際に、撮影画面50上において対象者の身体がガイド枠51の枠内に十分に収まっていない場合には撮影を許可せず、対象者の身体がガイド枠51の枠内に十分に収まっている場合にのみ、アプリケーション5の画面上に文字「撮影」が表示されている範囲のタッチ領域をアクティブ化して、撮影を許可するように構成されていてもよい。
アプリケーション5が上記のように構成されている場合には、撮影者は、撮影に要求される姿勢及び向きの対象者をより容易に撮影することができる。
When a photographer photographs a subject, if the subject's body is not sufficiently within the
When the
アプリケーション5は、主として画像取得ステップにおいて取得される少なくとも1つの撮影画像を撮影するために使用されるが、本発明の身体採寸方法を実行するにあたって有用な他の情報を取得するために使用されてもよい。
例えば、アプリケーション5は、対象者の身長、体重、年齢等、三次元モデルに基づく採寸において参照され得る有用な情報を、対象者が直接入力するためのインタフェースをさらに備えていてもよい。
The
For example, the
なお、本実施形態に係るコンピュータにより実行される身体採寸方法は、上記の実施形態の構成に限定されるものではない。また、本発明に係るコンピュータにより実行される身体採寸方法は、上記した作用効果によって限定されるものでもない。本発明に係るコンピュータにより実行される身体採寸方法は、本発明の要旨を逸脱しない範囲で種々の変更が可能である。 Note that the body measurement method executed by the computer according to this embodiment is not limited to the configuration of the above embodiment. Further, the body measurement method executed by the computer according to the present invention is not limited to the above-described effects. The body measurement method executed by the computer according to the present invention can be modified in various ways without departing from the gist of the present invention.
例えば、図1に示される方法1では、本発明の上記第1の特徴に係る三次元モデルの生成を繰り返すサブステップ21~24と、本発明の上記第2の特徴に係る骨格推定に基づいて画像を補正するステップ13(又はステップ13A)との両方を備えているが、本発明の方法は、これらの特徴の両方を必ずしも有していなくてもよい。
For example, method 1 shown in FIG. 1 includes
例えば、本発明の身体採寸方法では、三次元モデルの生成を繰り返すサブステップ21~24を含んでいるのであれば、骨格推定に基づいて画像を補正するステップ13(又はステップ13A)を必ずしも行わなくてもよい。同様に、骨格推定に基づいて画像を補正するステップ13(又はステップ13A)を実行するのであれば、三次元モデルの生成を繰り返すサブステップ21~24を行わず、三次元モデルの生成を一度だけ実行する者であってもよい。本発明の身体採寸方法は、これらの特徴に係るステップのうち片方だけを含んでいる場合であっても、対象者の身体特徴を高い精度で採寸することができる。
For example, if the body measurement method of the present invention includes
また、ここではこれ以上の詳細な説明を繰り返して行うことをしないが、上記に直接的に記載がされていない事項であっても、身体採寸方法について従来公知の技術事項については、本発明においても適宜採用可能である。 In addition, although a more detailed explanation will not be repeated here, even if the matters are not directly described above, conventionally known technical matters regarding body measurement methods will be included in the present invention. can also be adopted as appropriate.
Claims (10)
前記対象者の身体に対応する身体領域と、前記身体領域以外の領域に対応する背景領域とを含む、少なくとも1つの撮影画像を取得する画像取得ステップと、
前記撮影画像のそれぞれを変換して、前記撮影画像の身体領域に対応する第1色で表された身体領域と、前記撮影画像の背景領域に対応する第2色が表された背景領域とを含む、前記撮影画像に対応するリファレンス二階調画像をそれぞれ生成する二値化ステップと、
前記リファレンス二階調画像のそれぞれを、モデル生成用画像として定義する定義ステップと、
前記対象者の三次元モデルを出力するモデル出力ステップであって、
体型テンプレートデータと畳み込みニューラルネットワークを使用して、前記モデル生成用画像から、前記対象者の三次元モデルを生成するサブステップと、
前記対象者の三次元モデルに基づいて、前記モデル生成用画像のそれぞれに対応する比較用二階調画像をそれぞれ生成するサブステップと、
前記リファレンス二階調画像の身体領域のそれぞれと、前記比較用二階調画像の身体領域のそれぞれとを比較して、両者の差分値を算出するサブステップと、
前記差分値が所定の閾値より大きい場合、かつ、本モデル出力ステップの実行回数が所定の回数より少ない場合、前記比較用二階調画像を修正し、前記モデル生成用画像を修正された前記比較用二階調画像に変更して、本モデル出力ステップを再度実行するサブステップと
を含む、モデル出力ステップと、
最後に算出された前記差分値が所定の閾値以下であった場合、最後に生成された前記対象者の三次元モデルに基づいて、前記対象者の身体特徴に関連する1つ以上の寸法を測定する測定ステップと
を含む、方法。 A computer-implemented method for measuring the body of a subject, the method comprising:
an image obtaining step of obtaining at least one captured image including a body region corresponding to the body of the subject and a background region corresponding to a region other than the body region;
Each of the photographed images is converted into a body region represented by a first color corresponding to the body region of the photographed image and a background region represented by a second color corresponding to the background region of the photographed image. a binarization step of generating reference two-tone images corresponding to the photographed images, respectively;
a definition step of defining each of the reference two-tone images as a model generation image;
a model output step of outputting a three-dimensional model of the subject,
a substep of generating a three-dimensional model of the subject from the model generation image using body shape template data and a convolutional neural network;
a substep of generating comparative two-tone images corresponding to each of the model generation images based on the three-dimensional model of the subject;
a substep of comparing each of the body regions of the reference two-tone image and each of the body regions of the comparison two-tone image to calculate a difference value between the two;
If the difference value is larger than a predetermined threshold, and if the number of executions of this model output step is less than a predetermined number of times, the comparison two-tone image is corrected, and the model generation image is changed to the corrected comparison image. A model output step, comprising: a substep of changing to a two-tone image and executing the model output step again;
If the last calculated difference value is less than or equal to a predetermined threshold, one or more dimensions related to the body characteristics of the subject are measured based on the last generated three-dimensional model of the subject. and a measuring step.
前記定義ステップの前に、前記撮影画像又は前記リファレンス二階調画像から前記対象者の骨格を推定し、推定された骨格を用いて、前記リファレンス二階調画像に含まれる前記身体領域の形状を補正する二階調画像補正ステップ
をさらに含む、請求項1~5のいずれか1項に記載の方法。 Before the binarization step, a photographed image correction step of estimating the skeleton of the subject from the photographed image and correcting the shape of the body region included in the photographed image using the estimated skeleton, or ,
Before the defining step, the skeleton of the subject is estimated from the photographed image or the reference two-tone image, and the shape of the body region included in the reference two-tone image is corrected using the estimated skeleton. A method according to any one of claims 1 to 5, further comprising a two-tone image correction step.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022000630A JP7365435B2 (en) | 2022-01-05 | 2022-01-05 | Computer-implemented body measurement method |
JP2023150496A JP2023166573A (en) | 2022-01-05 | 2023-09-15 | Body size measuring method executed by computer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022000630A JP7365435B2 (en) | 2022-01-05 | 2022-01-05 | Computer-implemented body measurement method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023150496A Division JP2023166573A (en) | 2022-01-05 | 2023-09-15 | Body size measuring method executed by computer |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023100154A JP2023100154A (en) | 2023-07-18 |
JP7365435B2 true JP7365435B2 (en) | 2023-10-19 |
Family
ID=87200599
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022000630A Active JP7365435B2 (en) | 2022-01-05 | 2022-01-05 | Computer-implemented body measurement method |
JP2023150496A Pending JP2023166573A (en) | 2022-01-05 | 2023-09-15 | Body size measuring method executed by computer |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023150496A Pending JP2023166573A (en) | 2022-01-05 | 2023-09-15 | Body size measuring method executed by computer |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7365435B2 (en) |
-
2022
- 2022-01-05 JP JP2022000630A patent/JP7365435B2/en active Active
-
2023
- 2023-09-15 JP JP2023150496A patent/JP2023166573A/en active Pending
Non-Patent Citations (2)
Title |
---|
Alexandru O. Balan et al.,Detailed Human Shape and Pose from Images,[online],2007年,https://ieeexplore.ieee.org/document/4270338 |
Endri Dibra et al.,HS-Nets : Estimating Human Body Shape from Silhouettes with Convolutional Neural Networks,[online],2016年,https://ieeexplore.ieee.org/document/7785083 |
Also Published As
Publication number | Publication date |
---|---|
JP2023166573A (en) | 2023-11-21 |
JP2023100154A (en) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102290040B1 (en) | Imaging a body | |
Song et al. | Learning to hallucinate face images via component generation and enhancement | |
JP4950787B2 (en) | Image processing apparatus and method | |
US20150213646A1 (en) | Method and System for Constructing Personalized Avatars Using a Parameterized Deformable Mesh | |
KR20170008638A (en) | Three dimensional content producing apparatus and three dimensional content producing method thereof | |
JP2015527625A (en) | physical measurement | |
CN114219878B (en) | Animation generation method and device for virtual character, storage medium and terminal | |
CN109816784B (en) | Method and system for three-dimensional reconstruction of human body and medium | |
KR102202490B1 (en) | Device and method for measuring three-dimensional body model | |
CN111862299A (en) | Human body three-dimensional model construction method and device, robot and storage medium | |
US11403781B2 (en) | Methods and systems for intra-capture camera calibration | |
CN109655011B (en) | Method and system for measuring dimension of human body modeling | |
CN111680573B (en) | Face recognition method, device, electronic equipment and storage medium | |
Guo et al. | Human performance capture from monocular video in the wild | |
US11922593B2 (en) | Methods of estimating a bare body shape from a concealed scan of the body | |
KR101995411B1 (en) | Device and method for making body model | |
US11461914B2 (en) | Measuring surface distances on human bodies | |
US20230132479A1 (en) | Systems and methods for personalized patient body modeling | |
CN113516755A (en) | Image processing method, image processing apparatus, electronic device, and storage medium | |
JP7365435B2 (en) | Computer-implemented body measurement method | |
Straka et al. | Rapid skin: estimating the 3D human pose and shape in real-time | |
CN107403448A (en) | Cost function generation method and cost function generating means | |
CN114663983A (en) | Mesh topology structure acquisition method and device, electronic equipment and storage medium | |
JP2022092528A (en) | Three-dimensional person attitude estimation apparatus, method, and program | |
CN112464791A (en) | Gesture recognition method, device, equipment and storage medium based on two-dimensional camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231006 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7365435 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |