JP2020170394A - Clothing-wearing visualization system and clothing-wearing visualization method - Google Patents

Clothing-wearing visualization system and clothing-wearing visualization method Download PDF

Info

Publication number
JP2020170394A
JP2020170394A JP2019072111A JP2019072111A JP2020170394A JP 2020170394 A JP2020170394 A JP 2020170394A JP 2019072111 A JP2019072111 A JP 2019072111A JP 2019072111 A JP2019072111 A JP 2019072111A JP 2020170394 A JP2020170394 A JP 2020170394A
Authority
JP
Japan
Prior art keywords
image
wearing
user
data
clothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019072111A
Other languages
Japanese (ja)
Inventor
英治 築山
Eiji Tsukiyama
英治 築山
恭平 吉山
Kyohei Yoshiyama
恭平 吉山
山田 尚史
Hisafumi Yamada
尚史 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pksha Tech Co Ltd
Sapeet
Sapeet Inc
PKSHA Technology Inc
Original Assignee
Pksha Tech Co Ltd
Sapeet
Sapeet Inc
PKSHA Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pksha Tech Co Ltd, Sapeet, Sapeet Inc, PKSHA Technology Inc filed Critical Pksha Tech Co Ltd
Priority to JP2019072111A priority Critical patent/JP2020170394A/en
Publication of JP2020170394A publication Critical patent/JP2020170394A/en
Pending legal-status Critical Current

Links

Abstract

To provide a garment wearing visualization system and a garment wearing visualization method, which are capable of reflecting a user's preference for garments.SOLUTION: A garment wearing visualization system includes a user model creation unit 212 configured to generate a 3D avatar that conforms to the outer shape of a user 2 from body shape data indicating the outer shape of the user 2, a wearing processing unit 30 configured to provide a display operation module 23 with a wearing image indicating the appearance of the 3D avatar wearing a garment, a garment model processing unit 214 configured to assume that some dimensions of the garment have been designated by the display operation module 23, a wearing processing unit 30 configured to provide the display operation module 23 with a changed image indicating the appearance after the change, and a paper-pattern data processing unit 215 configured to provide paper-pattern data matching the changed image as manufacturing data.SELECTED DRAWING: Figure 2

Description

本発明は、衣服の着用状態を可視化する衣服着用可視化システム、及び衣服着用可視化方法に関する。 The present invention relates to a clothing wearing visualization system for visualizing the wearing state of clothing, and a clothing wearing visualization method.

利用者の身体に適合した衣服を提供するサービスは、利用者の体形寸法を測定する方法、および、身体と衣服との適合の度合いを示す方法を用いている。
体形寸法を測定する方法の一例として、特許文献1に記載の身体寸法の測定システムは、複数の方向から利用者を撮影した身体画像を用いて、利用者の体形寸法を測定する。体形寸法の測定結果は、例えば、オーダーメードの衣服を製作する型紙の修正に採用される。
Services that provide clothing that fits the user's body use a method of measuring the body shape of the user and a method of indicating the degree of compatibility between the body and the clothing.
As an example of the method of measuring the body size, the body size measuring system described in Patent Document 1 measures the body size of the user by using body images of the user taken from a plurality of directions. The measurement result of the body shape size is adopted, for example, for modifying a pattern for making custom-made clothes.

適合の度合いを示す方法の一例として、特許文献2に記載の服飾用品販売サーバは、利用者の身長や体重等の体形データと、利用者の全身画像とを用いて、利用者の体形を示す画像である体形モデルを作成し、利用者が衣服を着用した仮想的な様相を着用画像として閲覧可能にする。また、例えば、特許文献3に記載の方法は、体形寸法に適合した身体モデルを、仮想モデルと測定結果とのマッチング、および、補正によって作成する。そして、身体モデルに適合した衣服を、データセットのなかの衣服と身体モデルとのマッチングによって決定する。 As an example of the method of showing the degree of conformity, the clothing product sales server described in Patent Document 2 shows the body shape of the user by using the body shape data such as the height and weight of the user and the whole body image of the user. A body shape model, which is an image, is created, and a virtual appearance of the user wearing clothes can be viewed as a wearing image. Further, for example, the method described in Patent Document 3 creates a body model suitable for body shape dimensions by matching and correcting a virtual model and a measurement result. Then, the clothes suitable for the body model are determined by matching the clothes in the data set with the body model.

特開2003−049307号公報Japanese Unexamined Patent Publication No. 2003-049307 特開2009−128996号公報JP-A-2009-128996 特表2013−526735号公報Special Table 2013-526735

一方、利用者の衣服に対する嗜好は、近年では広がる一途であり、利用者の体形寸法のみで定まることはなく、購入対象となる衣服を着用する場面、購入対象となる衣服を着用する頻度、流行に対する利用者の意識、衣服を購入する目的等に応じて区々である。そのため、上述した衣服着用可視化システムには、利用者の衣服に対する嗜好をさらに反映させるものが望まれている。 On the other hand, users' tastes for clothes have been expanding in recent years, and are not determined only by the user's body size, but the scene of wearing the clothes to be purchased, the frequency of wearing the clothes to be purchased, and the fashion. It depends on the user's awareness of the situation, the purpose of purchasing clothes, and so on. Therefore, it is desired that the above-mentioned clothing wearing visualization system further reflects the user's preference for clothing.

例えば、腕の長さや腕周りの大きさが同じである利用者間においても、腕を頻繁に動かす場面で衣服を着用したい利用者は、袖丈や袖周りにゆとりのある衣服を好む一方で、儀礼的な場面で衣服を着用したい利用者は、腕の形状に合った衣服を好みやすい。 For example, even among users who have the same arm length and arm circumference, users who want to wear clothes when they move their arms frequently prefer clothes with sleeve length and space around the sleeves. Users who want to wear clothes in ceremonial situations tend to prefer clothes that match the shape of their arms.

例えば、着丈の短い上着が流行している場合、座高が同じである利用者間においても、流行に対し意識の高い利用者は、着丈の短い衣服を好む一方で、流行に影響を受けにくい利用者は、着丈の長い衣服を好みやすい。 For example, when short-length outerwear is popular, even among users with the same sitting height, fashion-conscious users prefer short-length clothing, but are less susceptible to fashion. Users tend to prefer long-length clothing.

本発明は、利用者の衣服に対する嗜好を反映可能にした衣服着用可視化システム、及び衣服着用可視化方法を提供することを目的とする。 An object of the present invention is to provide a clothing wearing visualization system and a clothing wearing visualization method capable of reflecting a user's preference for clothes.

上記課題を解決する衣服着用可視化システムは、利用者の外形を示す利用者外形情報から前記利用者の外形に準じた3次元の外形モデルを生成し、当該外形モデルに衣服を着用させた様相を示す着用画像を画像表示端末に提供する着用画像提供部と、前記着用画像のなかの衣服の一部を前記画像表示端末の指定によって寸法の変更された衣服に変更した様相を示す変更画像を前記画像表示端末に提供する変更画像提供部と、前記画像表示端末に表示された前記変更画像の確定を受けて前記変更画像に適合する衣服の寸法を取得し、当該寸法を前記衣服の製造データとして提供する寸法提供部とを備える。 The clothing wearing visualization system that solves the above problem generates a three-dimensional external shape model according to the external shape of the user from the user external shape information indicating the external shape of the user, and makes the external shape model wear clothes. The wearing image providing unit that provides the wearing image to be shown to the image display terminal, and the modified image showing the appearance that a part of the clothes in the wearing image is changed to the clothes whose dimensions have been changed by the designation of the image display terminal. Upon confirmation of the modified image providing unit provided to the image display terminal and the modified image displayed on the image display terminal, the dimensions of the garment conforming to the modified image are acquired, and the dimensions are used as the manufacturing data of the garment. It is provided with a dimension providing unit to be provided.

上記課題を解決する衣服着用可視化方法は、利用者の外形を示す利用者外形情報から前記利用者の外形に準じた3次元の外形モデルを生成し、当該外形モデルに衣服を着用させた様相を示す着用画像を画像表示端末に提供する着用画像提供ステップと、前記着用画像のなかの衣服の一部を前記画像表示端末の指定によって寸法の変更された衣服に変更した様相を示す変更画像を前記画像表示端末に提供する変更画像提供ステップと、前記画像表示端末に表示された前記変更画像の確定を受けて前記変更画像に適合する衣服の寸法を取得し、当該寸法を前記衣服の製造データとして提供する寸法提供ステップとを備える。 The clothing wearing visualization method that solves the above problem generates a three-dimensional external shape model according to the external shape of the user from the user external shape information indicating the external shape of the user, and makes the external shape model wear clothes. The wearing image providing step of providing the wearing image to be shown to the image display terminal, and the modified image showing the appearance of changing a part of the clothes in the wearing image to the clothes whose dimensions have been changed by the designation of the image display terminal are described above. Upon receiving the confirmation of the modified image providing step provided to the image display terminal and the modified image displayed on the image display terminal, the dimensions of the garment conforming to the modified image are acquired, and the dimensions are used as the manufacturing data of the garment. Provided with a dimension providing step to be provided.

このような構成又は方法によれば、利用者が実際に衣服を着用せずとも、利用者の外形の反映された外形モデルに衣服を着用させた様相を画像表示端末で確認することができる。そのうえ、衣服の着用状態における寸法変更を行うことができ、また、変更された寸法が製造データとして提供される。これにより、利用者が画像表示端末で着用画像を確認しながら、利用者の嗜好に適合するように寸法変更された衣服、いわゆるパターンオーダーと言える衣服を製造することのできるデータ提供が可能になる。すなわち、利用者の衣服に対する嗜好を衣服に反映可能にすることができる。 According to such a configuration or method, it is possible to confirm on the image display terminal how the external model reflecting the external shape of the user is made to wear clothes without the user actually wearing clothes. Moreover, the dimensions can be changed while the garment is worn, and the changed dimensions are provided as manufacturing data. This makes it possible to provide data that enables the user to manufacture clothes that have been sized to suit the user's taste, that is, clothes that can be said to be a pattern order, while checking the worn image on the image display terminal. .. That is, it is possible to reflect the user's preference for clothes on the clothes.

また、画像表示端末で表示する着用画像であれば、衣服を着用する場面や頻度、衣服の流行を、利用者の嗜好に適合する任意の状態に設定することもできる。例えば、衣服の寸法は、利用者の体形寸法のみで定まることはなく、購入対象となる衣服を着用する場面、購入対象となる衣服を着用する頻度、流行に対する利用者の意識、衣服を購入する目的等に応じて区々である。よって、この衣服着用可視化システムは、利用者の衣服に対する嗜好をさらに反映させることもできる。 Further, if the wearing image is displayed on the image display terminal, the scene and frequency of wearing clothes and the fashion of clothes can be set to any state that suits the taste of the user. For example, the size of clothes is not determined only by the body shape of the user, but the scene of wearing the clothes to be purchased, the frequency of wearing the clothes to be purchased, the user's awareness of fashion, and the purchase of clothes. It is divided according to the purpose. Therefore, this clothing wearing visualization system can further reflect the user's preference for clothing.

また、外形モデルに対する衣服の着用と寸法変更とが実現可能であるから、一部の寸法が変更された衣服を変更要請の都度実際に準備することが不要であり、さらに、手間ではあるが避けることのできない実際の着脱を行わなくてもよい。 In addition, since it is possible to wear clothes and change the dimensions of the external model, it is not necessary to actually prepare clothes whose dimensions have been changed each time a change request is made, and it is troublesome but avoidable. It is not necessary to perform the actual attachment / detachment that cannot be done.

好ましい構成として、前記画像表示端末は、前記利用者の端末である。
利用者の外形に準じた外形モデルは、利用者の体形寸法を把握可能にする画像であって、利用者のプライバシーに関わる内容を含む。この点、上記構成によれば、利用者が自らの端末で、自身の体形的特徴を有する外形モデルを用い、外形モデルに着用された衣服の寸法を変更することができる。そのため、自身の外形モデルに対する衣服の着脱を自身の端末以外で操作されることがなく、また、自身の嗜好を衣服に反映することが容易になる。
As a preferred configuration, the image display terminal is the user's terminal.
The outer shape model according to the outer shape of the user is an image that makes it possible to grasp the body shape and dimensions of the user, and includes contents related to the privacy of the user. In this regard, according to the above configuration, the user can change the dimensions of the clothes worn on the external model by using the external model having his / her own physical characteristics on his / her own terminal. Therefore, the attachment / detachment of clothes to / from the own external model is not operated by other than the own terminal, and it becomes easy to reflect the own taste in the clothes.

好ましい構成として、前記寸法提供部は、前記利用者の発注に基づいて前記利用者に関連付けた前記製造データを前記衣服の製造元に提供する。
利用者の嗜好に合わせて一部変更を受け付ける注文生産業者は、衣服を製造販売する業者のなかで限られており、こうした業者を利用者が見つけ出すことは煩わしく、また、こうした業者と製造データを共有する作業負荷も多大なものである。この点、上記構成によれば、利用者の発注に基づいて製造データが製造元に提供されるため、製造業者と製造データを共有するための利用者の負荷が軽減可能であって、利用者の嗜好に適合するように寸法変更された衣服、いわゆる注文生産と言えるような衣服が製造元で製造可能になる。
As a preferred configuration, the dimension providing unit provides the garment manufacturer with the manufacturing data associated with the user based on the user's order.
The number of custom-made manufacturers that accept partial changes according to the tastes of users is limited among those that manufacture and sell clothing, and it is troublesome for users to find such manufacturers, and it is troublesome for users to find such manufacturers and manufacturing data. The shared workload is also enormous. In this regard, according to the above configuration, since the manufacturing data is provided to the manufacturer based on the user's order, the load on the user for sharing the manufacturing data with the manufacturer can be reduced, and the user's load can be reduced. Manufacturers will be able to manufacture garments that have been sized to suit their tastes, so-called custom-made garments.

好ましい構成として、前記着用画像提供部は、前記着用画像のなかの衣服から前記外形モデルが受ける着圧の分布を前記画像表示端末にさらに提供する、及び、前記変更画像提供部は、前記変更画像のなかの衣服から前記外形モデルが受ける着圧の分布を前記画像表示端末にさらに提供することの少なくとも一方を行う。 As a preferred configuration, the wearing image providing unit further provides the image display terminal with a distribution of the wearing pressure received by the external model from the clothes in the wearing image, and the modified image providing unit provides the modified image. At least one of providing the image display terminal with the distribution of the pressure applied to the external model from the clothes in the image display terminal is performed.

寸法変更を求める利用者の嗜好には、衣服の色や形状の他に、着用した際の衣服の各部における緩み具合や締め付け具合が含まれ得る。そして、着用した際の緩み具合や締め付け具合は、衣服の寸法や形状のみならず、衣服を構成する生地の素材、織り方、厚み、糸の太さなどに基づく弾性率によっても変わり得るから、外形モデルに衣服を着用させた様相のみからは把握され難い。この点、上記構成によれば、外形モデルが受ける着圧の分布を利用者が確認できるようになるため、着用した際の緩み具合や締め付け具合を利用者が把握できる。よって、衣服の寸法を、外観の情報からだけではなく、着用した際の緩み具合や締め付け具合に基づいて変更できる。 In addition to the color and shape of the garment, the user's preference for changing the dimensions may include the degree of looseness and tightening of each part of the garment when worn. The degree of looseness and tightening when worn can vary not only with the size and shape of the garment, but also with the elastic modulus based on the material, weave, thickness, thread thickness, etc. of the fabric that makes up the garment. It is difficult to grasp only from the appearance of wearing clothes on the external model. In this regard, according to the above configuration, the user can confirm the distribution of the pressure applied to the external model, so that the user can grasp the looseness and the tightening condition when worn. Therefore, the dimensions of the garment can be changed not only from the appearance information but also based on the looseness and tightening of the garment when worn.

好ましい構成として、前記変更画像は、衣服を構成する生地の重さを反映した様相を示す。
衣服を構成する生地の目付は、単位面積あたりの生地の重さであって、衣服のシルエット、衣服の各部におけるラインの形状、衣服に生じるシワや捩れの形状等を変え得る。一方、寸法変更を求める利用者の嗜好には、衣服の色や形状の他に、これら生地の重さに依存した様相が含まれ得る。そのため、衣服の一部を寸法変更することに際して生地の重さが考慮されていない構成では、利用者が実際に着用したときの様相と変更画像との間で、生地の重さに依存した様相に乖離が生じ得る。この点、上記構成によれば、衣服を構成する生地の重さが反映された様相を利用者が確認できるため、利用者の嗜好にさらに適合した製造データを提供することができる。
As a preferred configuration, the modified image shows an aspect that reflects the weight of the fabrics that make up the garment.
The basis weight of the fabric constituting the garment is the weight of the fabric per unit area, and can change the silhouette of the garment, the shape of lines in each part of the garment, the shape of wrinkles and twists generated in the garment, and the like. On the other hand, the user's preference for changing the size may include an aspect depending on the weight of these fabrics in addition to the color and shape of the garment. Therefore, in a configuration in which the weight of the fabric is not taken into consideration when changing the dimensions of a part of the garment, the appearance depending on the weight of the fabric between the appearance when the user actually wears it and the changed image. Can cause a divergence. In this regard, according to the above configuration, since the user can confirm the aspect in which the weight of the fabric constituting the garment is reflected, it is possible to provide manufacturing data that is more suitable for the user's taste.

好ましい構成として、前記外形モデルは、所定の姿勢に対応したモデルであり、前記変更画像提供部は、前記利用者外形情報から利用者の任意の姿勢を把握し、当該任意の姿勢における前記利用者外形情報から前記所定の姿勢における前記外形モデルを推定する。 As a preferable configuration, the external shape model is a model corresponding to a predetermined posture, and the modified image providing unit grasps an arbitrary posture of the user from the user external shape information, and the user in the arbitrary posture. The outer shape model in the predetermined posture is estimated from the outer shape information.

利用者外形情報が示す外形での利用者の姿勢と、着用画像が示す外形モデルの姿勢との間に乖離が生じている場合には、利用者の実際の様相と、外形モデルが示す様相との間に乖離が生じ得る。こうした乖離を抑制するためには、着用画像が示す外形モデルの姿勢と、利用者外形情報を生成するために行われる利用者の撮影姿勢とを整合させることが強いられる。この点、上記構成によれば、利用者外形情報が得られたときの利用者の任意の姿勢から、着用画像に適用する所定の姿勢としたときの外形モデルが推定される。よって、当該推定された外形モデルに衣服を着用させることができるため、利用者外形情報が示す外形での利用者の姿勢と、着用画像が示す外形モデルの姿勢との間に生じた乖離による誤差が着用画像や変更画像において低減される。また、利用者外形情報を取得するための撮影等において利用者の姿勢に対する制約が軽減される。 If there is a discrepancy between the posture of the user in the outer shape shown by the user outer shape information and the posture of the outer shape model shown in the wearing image, the actual appearance of the user and the appearance shown by the outer shape model There can be a divergence between. In order to suppress such a dissociation, it is obliged to match the posture of the outer shape model shown by the wearing image with the shooting posture of the user performed to generate the user outer shape information. In this regard, according to the above configuration, the outer shape model when the predetermined posture to be applied to the wearing image is estimated from the arbitrary posture of the user when the user outer shape information is obtained. Therefore, since the estimated outer shape model can be made to wear clothes, an error due to a discrepancy between the posture of the user in the outer shape indicated by the user outer shape information and the posture of the outer shape model shown in the wearing image. Is reduced in worn and modified images. In addition, restrictions on the posture of the user are alleviated in shooting for acquiring the user's external shape information.

また、上記所定の姿勢が変更可能である構成であれば、利用者外形情報が示す外形での利用者の姿勢のみならず、様々な姿勢における着用態様を画像表示端末で確認できる。そのため、衣服の着用における利便性が高まる。 Further, if the predetermined posture can be changed, not only the posture of the user in the outer shape indicated by the user outer shape information but also the wearing mode in various postures can be confirmed on the image display terminal. Therefore, the convenience of wearing clothes is enhanced.

好ましい構成として、前記変更画像提供部は、衣服の型紙寸法に基づいて前記変更画像を生成し、前記寸法提供部は、前記画像表示端末から設定された寸法変更操作に基づいて前記型紙寸法を変更し、当該変更後の型紙寸法を、前記変更画像に示す衣服の寸法とする。 As a preferred configuration, the modified image providing unit generates the modified image based on the pattern size of the clothes, and the dimension providing unit changes the pattern size based on the dimension changing operation set from the image display terminal. Then, the pattern size after the change is taken as the size of the clothes shown in the changed image.

このような構成によれば、衣服の型紙寸法に画像表示端末から設定された変更が反映される。また、型紙寸法に基づいて生成される変更画像にも画像表示端末から設定された変更が反映される。つまり、画像表示端末から設定された変更が型紙寸法を変更するとともに、変更画像に反映される。結果として、衣服を製造するための型紙寸法と製造データとの整合が担保されると共に、製造データを型紙寸法に変換する際に生じ得る誤差が低減される。そのため、利用者が確認した変更画像と、利用者が実際に衣服を着用した様相との乖離が低減される。 According to such a configuration, the change set from the image display terminal is reflected in the pattern size of the clothes. In addition, the change set from the image display terminal is also reflected in the change image generated based on the pattern size. That is, the change set from the image display terminal changes the pattern size and is reflected in the changed image. As a result, the consistency between the pattern size for manufacturing the garment and the manufacturing data is ensured, and the error that may occur when converting the manufacturing data into the pattern size is reduced. Therefore, the discrepancy between the changed image confirmed by the user and the appearance in which the user actually wears clothes is reduced.

好ましい構成として、前記寸法変更操作は、前記画像表示端末に表示された前記変更画像のなかの衣服の一部を前記画像表示端末で変位させる操作である。
このような構成によれば、画像表示端末において衣服の一部が変位される直感的な操作により着用画像における衣服の寸法を変更することができる。
As a preferred configuration, the dimensional change operation is an operation in which a part of the clothes in the changed image displayed on the image display terminal is displaced by the image display terminal.
According to such a configuration, the size of the clothes in the worn image can be changed by an intuitive operation in which a part of the clothes is displaced in the image display terminal.

本発明によれば、利用者の衣服に対する嗜好を反映可能にすることができる。 According to the present invention, it is possible to reflect the user's preference for clothes.

衣服着用可視化システム、及び衣服着用可視化方法の一実施形態を含む構成を示すブロック図。FIG. 3 is a block diagram showing a configuration including an embodiment of a clothing wearing visualization system and a clothing wearing visualization method. 同実施形態の概略構成を示すブロック図。The block diagram which shows the schematic structure of the same embodiment. 同実施形態の製造システムのブロック図。The block diagram of the manufacturing system of the same embodiment. 同実施形態の着用処理部のブロック図。The block diagram of the wearing processing part of the same embodiment. 同実施形態で利用者の体形データの図。The figure of the body shape data of the user in the same embodiment. 同実施形態の表示操作モジュールに表示される画像の図であって、(a)は衣服の種類を提示する図、(b)は着用画像と選択肢と提示する図、(c)は右袖の寸法を変更する画面の図、(d)は注文確定するときの画像の図。It is a figure of the image displayed in the display operation module of the same embodiment, (a) is a figure which presents the type of clothes, (b) is a figure which presents a wearing image and an option, and (c) is a figure of a right sleeve. The figure of the screen for changing the dimension, (d) is the figure of the image when the order is confirmed. 同実施形態で着用画像の寸法変更を例示する図。The figure which illustrates the dimensional change of the wearing image in the same embodiment. 同実施形態で寸法変更と型紙データとの関係を示す図。The figure which shows the relationship between the dimension change and the pattern data in the same embodiment. 同実施形態で表示操作モジュールに表示される着衣の様相を示す図。The figure which shows the appearance of the clothes displayed on the display operation module in the same embodiment. 同実施形態で表示操作モジュールに表示される着衣の様相を示す図。The figure which shows the appearance of the clothes displayed on the display operation module in the same embodiment. 同実施形態で表示操作モジュールに表示される着圧分布を示す図。The figure which shows the compression pressure distribution displayed on the display operation module in the same embodiment. 他の実施形態で表示操作モジュールに表示される画像を示す図。The figure which shows the image which is displayed on the display operation module in another embodiment.

図1〜図12を参照して、衣服着用可視化システム、及び衣服着用可視化方法の一実施形態について説明する。衣服着用可視化システムは、衣服を製造販売するシステムに接続されており、利用者が衣服を購入する際、利用者の衣服に対する嗜好を購入する衣服に反映させることを可能にする。具体的には、衣服着用可視化システムは、端末に表示される仮想空間上に配置した利用者を模した外形モデルとしての3次元画像(アバター)に利用者の選択した衣服を着用させることで、当該衣服を利用者が着用した様相を利用者等が確認できるように表示するシステムである。 An embodiment of the clothing wearing visualization system and the clothing wearing visualization method will be described with reference to FIGS. 1 to 12. The clothing wear visualization system is connected to a system for manufacturing and selling clothing, and enables a user to reflect his or her preference for clothing in the purchasing clothing when purchasing the clothing. Specifically, the clothing wearing visualization system causes the user to wear the clothes selected by the user on a three-dimensional image (avatar) as an external model imitating the user placed in the virtual space displayed on the terminal. It is a system that displays the appearance of the user wearing the clothes so that the user can confirm it.

(衣服を製造販売するシステム)
図1を参照して、衣服着用可視化システム20の接続されるシステムである、衣服を製造販売するシステムの一例を説明する。衣服を製造販売するシステムは、情報の相互の授受を可能にするネットワーク10を介して、衣服着用可視化システム20と、POSデータサーバ11と、EC購買データサーバ12と、販売管理システム13と、商品データサーバ14と、利用者データサーバ15と、製造元としての製造システム16とを接続させている。
(System for manufacturing and selling clothes)
With reference to FIG. 1, an example of a system for manufacturing and selling clothes, which is a connected system of the clothes wearing visualization system 20, will be described. The system for manufacturing and selling clothes includes a clothes wearing visualization system 20, a POS data server 11, an EC purchasing data server 12, a sales management system 13, and a product via a network 10 that enables mutual exchange of information. The data server 14, the user data server 15, and the manufacturing system 16 as a manufacturer are connected.

POSデータサーバ11は、衣服の売買に関係する情報を有しているサーバであり、店舗における衣服等の販売実績を有している。販売実績には、販売商品と利用者とが関連付けられているデータが含まれていてもよい。 The POS data server 11 is a server that has information related to the buying and selling of clothes, and has a sales record of clothes and the like in stores. The sales performance may include data in which the sold product and the user are associated with each other.

EC購買データサーバ12は、インターネット等を利用した仮想店舗における衣服等の販売実績を有している。販売実績には、販売商品と利用者とが関連付けられているデータが含まれている。 The EC purchase data server 12 has a sales record of clothes and the like in a virtual store using the Internet or the like. The sales performance includes data in which the sold product and the user are associated with each other.

販売管理システム13は、商品の在庫管理、受発注管理、配送管理等を行う。
商品データサーバ14は、販売に用いられる衣服に関係する情報を有しているサーバであって、衣服の情報や、衣服の画像等を検索、配信可能に保持している。また、商品データサーバ14は、製造される衣服に関係する情報を有しているサーバであって、衣服の情報、衣服を構成する生地の情報、衣服の型紙等を検索、配信可能に保持している。
The sales management system 13 manages product inventory, order management, delivery management, and the like.
The product data server 14 is a server that has information related to clothes used for sale, and holds clothes information, clothes images, and the like so that they can be searched and distributed. In addition, the product data server 14 is a server that has information related to the clothes to be manufactured, and holds the information on the clothes, the information on the fabrics constituting the clothes, the pattern of the clothes, etc. so that it can be searched and distributed. ing.

利用者データサーバ15は、衣服購入に関連する利用者情報を保持している。利用者情報は、取引に関する情報、対象商品の絞り込み等に関する情報、利用者の画像情報、利用者を模したアバター、衣服の寸法に関する情報を含んでいる。決済方法等の取引に関する情報には、利用者の住所、氏名、決済方法等が含まれてもよい。対象商品の絞り込み等に関する情報には、ターゲット層を絞るための情報として、利用者2の年齢、性別、職業、衣服嗜好のアンケート結果等が含まれてもよい。また、利用者の画像情報は、利用者2の前方全身写真や、側方全身写真が含まれていてもよい。また、利用者の画像情報は、採寸のために撮影された2次元(2D)画像データや、3次元(3D)スキャンデータであってもよい。さらに、利用者の、後に詳述する3Dのアバターを保持してもよい。 The user data server 15 holds user information related to the purchase of clothes. The user information includes information on transactions, information on narrowing down target products, image information on users, avatars imitating users, and information on clothes dimensions. Information on transactions such as payment methods may include the user's address, name, payment method, and the like. The information on narrowing down the target products may include the results of a questionnaire on the age, gender, occupation, clothing preference, etc. of the user 2 as information for narrowing down the target group. Further, the image information of the user may include a front whole body photograph of the user 2 and a side whole body photograph. Further, the image information of the user may be two-dimensional (2D) image data taken for measurement or three-dimensional (3D) scan data. In addition, the user's 3D avatar, which will be described in detail later, may be retained.

利用者データサーバ15は、衣服着用可視化システム20との間で、利用者の画像情報、利用者を模したアバター、利用者の外形を示す利用者外形情報としての体形データ及び採寸データを授受することができる。利用者の画像情報には、前方全身写真や、側方全身写真が含まれてもよい。前方全身写真や側方全身写真は、衣服着用可視化システム20のカメラ22(図2参照)が取得したデータであってもよい。 The user data server 15 exchanges image information of the user, an avatar imitating the user, body shape data and measurement data as user outline information indicating the outline of the user with the clothing wearing visualization system 20. be able to. The image information of the user may include a front whole body photograph and a side whole body photograph. The front whole body photograph and the side whole body photograph may be data acquired by the camera 22 (see FIG. 2) of the clothing wearing visualization system 20.

図2を参照して説明すると、体形データ及び採寸データには、体重W、身長H、着丈L1、袖丈L2(図示略)、裄丈L3(図示略)を含んでもよい。このうち、採寸データは、例えば、着丈L1、袖丈L2、裄丈L3である。体形データ及び採寸データは、衣服着用可視化システム20での画像処理に基づいて得られたものが含まれてもよい。 Explaining with reference to FIG. 2, the body shape data and the measurement data may include weight W, height H, length L1, sleeve length L2 (not shown), and sleeve length L3 (not shown). Of these, the measurement data is, for example, length L1, sleeve length L2, and sleeve length L3. The body shape data and the measurement data may include those obtained based on the image processing in the clothing wearing visualization system 20.

図5を参照して説明すると、体形データには、利用者2の肩幅2S、首囲2N、胸囲2B、ウエスト2W、ウエスト(腰骨上)2G、ヒップ2H、股下2I、太もも回り2T、ふくらはぎ回り2C、足首回り2A、腕回り2AA、腕長さ2ALを含んでもよい。また、体形データや採寸データは、必要に応じて、ももの長さや脛の長さなどの任意の測定部位のデータを追加することができる。 Explaining with reference to FIG. 5, the body shape data includes the shoulder width 2S, neck circumference 2N, chest circumference 2B, waist 2W, waist (above the hip bone) 2G, hips 2H, inseam 2I, thigh circumference 2T, and calf circumference of the user 2. 2C, ankle circumference 2A, arm circumference 2AA, arm length 2AL may be included. Further, as the body shape data and the measurement data, data of an arbitrary measurement site such as the thigh length and the shin length can be added as needed.

(製造システム16)
図1に示す製造システム16は、受注オーダーに従って衣服を製造するとともに、出荷する。
(Manufacturing system 16)
The manufacturing system 16 shown in FIG. 1 manufactures and ships clothes according to an order.

図2に示すように、製造システム16は、衣服着用可視化システム20の制御装置21から利用者情報と型紙データとを受け取る。ここで、型紙データは型紙寸法や製造データを構成する。 As shown in FIG. 2, the manufacturing system 16 receives the user information and the pattern data from the control device 21 of the clothing wearing visualization system 20. Here, the paper pattern data constitutes the paper pattern dimensions and manufacturing data.

図3に示すように、製造システム16は、衣服着用可視化システム20から利用者2に適合するように調整された衣服の型紙データを得る(型紙データ等取得161)とともに、必要に応じて型紙データを補正する(型紙補正処理162)。又は、製造システム16は、衣服着用可視化システム20から衣服の型紙データを得る(型紙データ等取得161)とともに、利用者2に適合するように調整するための補正データを得て必要に応じて型紙データを補正する(型紙補正処理162)ようにしてもよい。なお、製造システム16は、型紙データを保持しているとき、衣服着用可視化システム20から、型紙データに代えて、型紙データを調整するための補正データのみを得てもよい。続いて、製造システム16は、型紙データに関連付けられている生地を裁断する(生地裁断処理163)とともに、裁断した生地を縫製し(縫製164)、衣服として仕上げる(仕上げ165)。そして、製造システム16は、仕上がった衣服を利用者2に対応付けて出荷する。出荷先は、利用者2であってもよいし、販売店等の仲介者であってもよい。 As shown in FIG. 3, the manufacturing system 16 obtains the pattern data of the clothes adjusted to suit the user 2 from the clothes wearing visualization system 20 (pattern data acquisition 161), and also the pattern data as needed. (Pattern correction process 162). Alternatively, the manufacturing system 16 obtains the pattern data of the clothes from the clothes wearing visualization system 20 (acquisition of pattern data, etc. 161), obtains correction data for adjusting to suit the user 2, and obtains the pattern as necessary. The data may be corrected (pattern correction process 162). When the manufacturing system 16 holds the pattern data, the clothing wearing visualization system 20 may obtain only the correction data for adjusting the pattern data instead of the pattern data. Subsequently, the manufacturing system 16 cuts the fabric associated with the pattern data (fabric cutting process 163), sews the cut fabric (sewing 164), and finishes the cut fabric as clothing (finishing 165). Then, the manufacturing system 16 ships the finished clothes in association with the user 2. The shipping destination may be user 2 or an intermediary such as a store.

(衣服着用可視化システム20)
図2を参照して、衣服着用可視化システム20について説明する。
衣服着用可視化システム20は、利用者2の外形データを取得するサイジングによって得られた外形データに基づいて利用者2の身体的特徴を有していることで利用者2を模した3Dのアバターを作成する。以下、利用者2を模した3Dのアバターを単に3Dアバターと記する。また、衣服着用可視化システム20は、作成した3Dアバターに衣服を着用させた様相を示す着用画像を表示させる制御装置21を備えている。
(Clothing wearing visualization system 20)
The clothing wearing visualization system 20 will be described with reference to FIG.
The clothing wearing visualization system 20 has a 3D avatar that imitates the user 2 by having the physical characteristics of the user 2 based on the external shape data obtained by sizing to acquire the external shape data of the user 2. create. Hereinafter, the 3D avatar that imitates the user 2 is simply referred to as a 3D avatar. In addition, the clothing wearing visualization system 20 includes a control device 21 that displays a wearing image showing the appearance of the created 3D avatar wearing clothes.

サイジングは、店員による採寸に基づくサイジング、利用者自身がスマートフォンで行うサイジング、店舗等に設置された3Dスキャナーによるサイジング等を採用することができる。また、3Dアバターに衣服を着用させることで、仮想空間上における衣服の着用について、目を引き、かつ、分かりやすい表現が可能になる。 For sizing, sizing based on measurements by a clerk, sizing performed by the user himself / herself with a smartphone, sizing using a 3D scanner installed in a store or the like can be adopted. In addition, by having the 3D avatar wear clothes, it is possible to make an eye-catching and easy-to-understand expression about wearing clothes in the virtual space.

制御装置21は、カメラ22と、画像表示端末としての表示操作モジュール23と、データモジュール24と、製造システム16とに情報を授受可能に接続されている。接続は、専用線、公衆回線やインターネット回線の少なくとも1つを介した有線接続及び無線接続の少なくとも一方でよい。 The control device 21 is connected to the camera 22, the display operation module 23 as an image display terminal, the data module 24, and the manufacturing system 16 so that information can be exchanged. The connection may be at least one of a wired connection and a wireless connection via at least one of a leased line, a public line or an internet line.

カメラ22は、3Dアバターを作成するための利用者2のアバター作成用データを取得する。カメラ22は、スマートフォンサイジングでは2D画像データを取得する2Dカメラを構成し、3Dスキャナーによるサイジングでは3Dボディスキャンシステムを構成する。カメラ22は、取得した2D画像データ又は3Dスキャンデータを、アバター作成用データとして画像処理部211に送る。カメラ22は、固定カメラ及び深度センサ、あるいは、深度センサを兼ねた固定カメラで構成され、取得できる情報量を増やしたり、画像やデータの精度を向上させてもよい。 The camera 22 acquires the avatar creation data of the user 2 for creating the 3D avatar. The camera 22 constitutes a 2D camera that acquires 2D image data in smartphone sizing, and constitutes a 3D body scan system in sizing by a 3D scanner. The camera 22 sends the acquired 2D image data or 3D scan data to the image processing unit 211 as avatar creation data. The camera 22 is composed of a fixed camera and a depth sensor, or a fixed camera that also serves as a depth sensor, and may increase the amount of information that can be acquired or improve the accuracy of images and data.

表示操作モジュール23は、利用者が所持しているタブレットやスマートフォン等の利用者端末であって、タッチパネル型ディスプレーを有してもよい。表示操作モジュール23は、表示部231と操作部232とを有する。 The display operation module 23 is a user terminal such as a tablet or a smartphone owned by the user, and may have a touch panel type display. The display operation module 23 has a display unit 231 and an operation unit 232.

図6(b)〜(d)に示すように、表示部231は、制御装置21から送られてきたデータを用いて着用画像を表示させることができる。図6(a)〜(d)に示すように、表示部231は、表示レイアウトが定められており、レイアウト中には、着用画像の表示領域、衣服の情報表示領域、操作領域等を有している。また、表示部231は、随時、表示している着用画像に対する操作が反映された着用画像を表示できるようになっている。 As shown in FIGS. 6B to 6D, the display unit 231 can display the wearing image using the data sent from the control device 21. As shown in FIGS. 6A to 6D, the display unit 231 has a display layout defined, and the layout includes a display area for wearing images, an information display area for clothes, an operation area, and the like. ing. In addition, the display unit 231 can display a wearing image that reflects an operation on the displayed wearing image at any time.

図6(a)〜(d)に示すように、操作部232は、タッチパネル型ディスプレーのタッチ操作部であって、利用者2の操作が入力される。操作部232は、表示部231に表示されている操作対象部分に対する操作を行える。例えば、3Dアバターを回転させて前後左右に向ける向きの変更や、衣服の選択、衣服の寸法調整、生地やデザイン等における各種選択肢や選択ボタンに対する操作を行うことができる。 As shown in FIGS. 6A to 6D, the operation unit 232 is a touch operation unit of the touch panel type display, and the operation of the user 2 is input. The operation unit 232 can perform an operation on the operation target portion displayed on the display unit 231. For example, it is possible to rotate the 3D avatar to change the direction of the front, back, left, and right, select clothes, adjust the dimensions of clothes, and operate various options and selection buttons in the fabric and design.

図2に示すように、データモジュール24は、データを保持し、出力可能な構成を有したコンピュータ等であって、型紙DB(データベース)241と、重ね着DB242と、服飾品DB243とを有する。なお、データモジュール24は、商品データサーバ14(図1参照)を含み構成されていてもよい。 As shown in FIG. 2, the data module 24 is a computer or the like having a configuration capable of holding and outputting data, and includes a paper pattern DB (database) 241, a layered DB 242, and a clothing item DB 243. The data module 24 may include a product data server 14 (see FIG. 1).

型紙DB241は、複数の衣服の型紙データを保持している。型紙DB241は、種類、大きさ、デザイン等で区分される各種の衣服毎に型紙データを有している。型紙データは、生地とデザイン、及び生地から衣服を製造するために必要な寸法を有している。また、型紙データは、サイズ調整や丈直し用のしろを含むとともに、生地の素材、織り方、厚み、糸の太さなどに基づく弾性率、生地の重さである目付、及び、しろを考慮した変形ルールを有している。また、型紙データは、利用者に商品の魅力を訴求したり、製造のためのビジュアル画像、素材、商品情報を合わせて含んでいてもよい。 The pattern DB 241 holds pattern data of a plurality of clothes. The pattern DB 241 has pattern data for each type of clothing classified by type, size, design, and the like. The pattern data has the fabric and design, and the dimensions required to make garments from the fabric. In addition, the pattern data includes margins for size adjustment and lengthening, and also considers the elastic modulus based on the material, weave, thickness, thread thickness, etc. of the fabric, the texture that is the weight of the fabric, and the margin. It has a modified rule. In addition, the pattern data may appeal to the user the attractiveness of the product, or may include visual images, materials, and product information for manufacturing together.

重ね着DB242は、体形データと着用させる衣服との間に介在する衣服のデータを重ね着データとして有している。重ね着データは、衣服を着用させる体形データを一時的に補正、又は、体形データに一時的に加算するデータを保持している。例えば、着用させる衣服がジャケットである場合、重ね着データは、下着及びシャツに相当するデータから構成される。また、着用させる衣服がコートである場合、重ね着データは、下着、シャツ及びジャケットに相当するデータから構成される。 The layered clothing DB 242 has data on clothing interposed between the body shape data and the clothing to be worn as layered data. The layered data holds data for temporarily correcting the body shape data for wearing clothes or temporarily adding the body shape data to the body shape data. For example, when the garment to be worn is a jacket, the layering data is composed of data corresponding to underwear and a shirt. Further, when the garment to be worn is a coat, the layering data is composed of data corresponding to underwear, a shirt and a jacket.

服飾品DB243は、着用させる衣服の他に着用したい服飾品のデータであって、体形データや衣服データに影響を及ぼさない服飾品のデータを保持している。
(制御装置21)
制御装置21は、演算装置、記憶装置216、通信装置、情報入出力装置等を有している。演算装置は、いわゆるコンピュータであって、記憶装置216等に記憶された各プログラムの実行に基づいて、各種の情報処理を行う。記憶装置216は、演算等の結果を一時的に保持するRAMや、プログラム等を保持するROMやフラッシュメモリ等より構成されている。
The clothing item DB 243 holds data on the clothing items to be worn in addition to the clothing to be worn, and holds data on the clothing items that do not affect the body shape data and the clothing data.
(Control device 21)
The control device 21 includes an arithmetic unit, a storage device 216, a communication device, an information input / output device, and the like. The arithmetic unit is a so-called computer, and performs various types of information processing based on the execution of each program stored in the storage device 216 or the like. The storage device 216 is composed of a RAM that temporarily holds the results of operations and the like, a ROM that holds programs and the like, a flash memory, and the like.

制御装置21は、画像処理部211、利用者モデル作成部212、着用処理部30、衣服モデル処理部214、寸法提供部としての型紙データ処理部215を備えている。
画像処理部211は、カメラ22から取得した2D画像データ又は3Dスキャンデータを画像処理して形状データを取得する。なお、画像処理部211は、2D画像データを取得すると、2D画像データから背景データを除去して人のシルエットを抽出するとともに、ポーズを考慮して形状データを推定する。他方、画像処理部211は、3Dスキャンデータを取得すると、3Dスキャンデータに基づいて形状データを推定する。
The control device 21 includes an image processing unit 211, a user model creation unit 212, a wearing processing unit 30, a clothing model processing unit 214, and a pattern data processing unit 215 as a dimension providing unit.
The image processing unit 211 performs image processing on the 2D image data or 3D scan data acquired from the camera 22 to acquire the shape data. When the image processing unit 211 acquires the 2D image data, the image processing unit 211 removes the background data from the 2D image data to extract the silhouette of a person, and estimates the shape data in consideration of the pose. On the other hand, when the image processing unit 211 acquires the 3D scan data, the image processing unit 211 estimates the shape data based on the 3D scan data.

画像処理部211は、形状データから1又は複数の寸法を取得できる。画像処理部211は、測定寸法の項目を絞ることで形状データから取得するときの精度向上や演算効率を高めることができる。 The image processing unit 211 can acquire one or more dimensions from the shape data. The image processing unit 211 can improve the accuracy and the calculation efficiency when acquiring from the shape data by narrowing down the items of the measurement dimensions.

利用者モデル作成部212は、画像処理部211で取得した形状データに基づいて3Dアバターを作成する。3Dアバターは、仮想空間において利用者2が衣服を着用するときに用いられる利用者2の分身であって、選択された衣服の着用に用いられる。3Dアバターは、利用者2の外形モデルであるため、着用した結果が現実に近いかたちで得られるようになる。 The user model creation unit 212 creates a 3D avatar based on the shape data acquired by the image processing unit 211. The 3D avatar is an alter ego of the user 2 used when the user 2 wears clothes in the virtual space, and is used for wearing the selected clothes. Since the 3D avatar is an external model of the user 2, the result of wearing it can be obtained in a form close to reality.

利用者モデル作成部212は、画像処理部211で推定した形状データを三角形のポリゴンの集まりである3Dの体形データとして推定し、この3Dの体形データから3Dアバターを作成する。よって、3Dの体形データは、三角形のポリゴンの集まりからなり、各ポリゴンの頂点が体のどこに位置するかを制御することで姿勢を変えたときであっても各寸法を算出することができる。なお、3Dの体形データは、処理の都合に適したデータ形式を利用することができ、三角形のポリゴンの集まりからなるデータ形式以外で構成されてもよい。 The user model creation unit 212 estimates the shape data estimated by the image processing unit 211 as 3D body shape data which is a collection of triangular polygons, and creates a 3D avatar from the 3D body shape data. Therefore, the 3D body shape data consists of a collection of triangular polygons, and each dimension can be calculated even when the posture is changed by controlling where the vertices of each polygon are located on the body. The 3D body shape data can use a data format suitable for processing, and may be configured in a data format other than a data format consisting of a collection of triangular polygons.

また、画像処理部211及び利用者モデル作成部212は、カメラ22から取得できる2D画像データや3Dスキャンデータに対して分析や学習を行ってもよい。例えば、得られた2Dデータから身長、性別、年齢、体重等の身体的特徴をベースにクラスター分析で複数のクラスターに分類を行うようにしておく。特に2D画像データが得られたとき、性別、年齢、身長、体重等のデータも取得し、ターゲットクラスを選定した上で該当クラスターをカバーできるようなクラスターの代表3Dアバターを導きその形状を3Dの体形データとしてもよい。 Further, the image processing unit 211 and the user model creation unit 212 may analyze and learn the 2D image data and the 3D scan data that can be acquired from the camera 22. For example, the obtained 2D data is classified into a plurality of clusters by cluster analysis based on physical characteristics such as height, sex, age, and weight. Especially when 2D image data is obtained, data such as gender, age, height, weight, etc. are also acquired, and after selecting the target class, a representative 3D avatar of the cluster that can cover the corresponding cluster is derived and its shape is 3D. It may be used as body shape data.

そして、作成された3Dアバターからも1又は複数の寸法を取得することができる。
衣服着用可視化システム20は、カメラ22から取得した2D画像データや3Dスキャンデータを学習データセットとして蓄積し、利用者の形状データの推定精度を向上させることもできる。
Then, one or a plurality of dimensions can be acquired from the created 3D avatar.
The clothing wearing visualization system 20 can also accumulate 2D image data and 3D scan data acquired from the camera 22 as a learning data set to improve the estimation accuracy of the user's shape data.

また、こうした画像処理部211及び利用者モデル作成部212によれば、撮影時の姿勢で取得された3Dアバターについて撮影時の姿勢である撮影姿勢を特定するとともに、撮影姿勢から基準とする姿勢である基準姿勢であるときの3Dアバターを推定する。本実施形態では、基準姿勢が所定の姿勢を構成することができる。また、利用者モデル作成部212は、基準姿勢から任意の姿勢である任意姿勢の3Dアバターを推定することができる。つまり、画像処理部211及び利用者モデル作成部212は、利用者2の任意姿勢から基準姿勢の3Dアバターを得るので、基準姿勢の3Dアバターを作成するために利用者2に撮影時の姿勢を強制したり、撮影が失敗するおそれが減り、3Dアバターの作成における利便性が向上する。例えば、幼児、子供、高齢者、疾病のある方等のように、採寸のために特定姿勢を維持することが容易でない利用者2にあっても、利用者2の任意姿勢に基づいて基準姿勢の3Dアバターを得ることができる。また、1つの姿勢から他の姿勢を推定することができるため、姿勢維持が容易でない利用者2のみならず、一般の利用者2にあっても、採寸時の姿勢の数を減らすことが可能になり、採寸による拘束時間の短縮が可能になる。基準姿勢から推定できる任意姿勢には、立つ、座る、屈む等の日常生活の姿勢を含むことができるとともに、作業に伴う姿勢やダンス等のスポーツに伴う姿勢を含むことができる。作業に伴う姿勢における3Dアバターは作業着の着用に適し、スポーツに伴う姿勢における3Dアバターはスポーツウェアの着用に適する。 Further, according to the image processing unit 211 and the user model creation unit 212, the shooting posture, which is the posture at the time of shooting, is specified for the 3D avatar acquired in the posture at the time of shooting, and the posture is set as a reference from the shooting posture. Estimate the 3D avatar in a certain reference posture. In the present embodiment, the reference posture can constitute a predetermined posture. In addition, the user model creation unit 212 can estimate a 3D avatar in an arbitrary posture, which is an arbitrary posture, from the reference posture. That is, since the image processing unit 211 and the user model creation unit 212 obtain the 3D avatar of the reference posture from the arbitrary posture of the user 2, the user 2 is given the posture at the time of shooting in order to create the 3D avatar of the reference posture. The risk of forcing or shooting failure is reduced, and convenience in creating a 3D avatar is improved. For example, even if the user 2 has difficulty in maintaining a specific posture for measuring, such as an infant, a child, an elderly person, or a person with a disease, the reference posture is based on the user 2's arbitrary posture. You can get the 3D avatar of. Further, since the other posture can be estimated from one posture, it is possible to reduce the number of postures at the time of measurement not only for the user 2 whose posture is not easy to maintain but also for the general user 2. Therefore, it is possible to shorten the restraint time by measuring. The arbitrary posture that can be estimated from the reference posture can include postures of daily life such as standing, sitting, and bending, and can also include postures associated with work and postures associated with sports such as dance. A 3D avatar in a work-related posture is suitable for wearing work clothes, and a 3D avatar in a sports-related posture is suitable for wearing sportswear.

(型紙データの変更)
型紙データ処理部215は、型紙DB241から利用者2の選択した衣服の型紙データを取得する。型紙データは、衣服の全部分の寸法を含んでいる。型紙データ処理部215は、利用者2の選択した型紙データに対して生地変更、デザイン変更、寸法変更等をすることができる。
(Change of paper pattern data)
The pattern data processing unit 215 acquires the pattern data of the clothes selected by the user 2 from the pattern DB 241. The paper pattern data includes the dimensions of all parts of the garment. The pattern data processing unit 215 can change the fabric, design, change the dimensions, etc. of the pattern data selected by the user 2.

また、型紙データ処理部215は、衣服モデル処理部214から寸法変更の指示を受けることができる。型紙データ処理部215は、寸法変更の指示を受けると、指示位置の寸法と隣接する部分等の関連する寸法とを、型紙データの寸法変更ルールに基づいて変更し、変更後の寸法を有する型紙データを確定する。そして、型紙データ処理部215は、確定した型紙データを衣服モデル処理部214に送る。 Further, the paper pattern data processing unit 215 can receive an instruction to change the dimensions from the garment model processing unit 214. Upon receiving the instruction to change the dimensions, the pattern data processing unit 215 changes the dimensions of the instructed position and the related dimensions such as the adjacent portion based on the pattern change rule of the pattern data, and the pattern has the changed dimensions. Confirm the data. Then, the pattern data processing unit 215 sends the finalized pattern data to the garment model processing unit 214.

また、型紙データ処理部215は、確定した型紙データを利用者情報に関連付けて製造システム16に送ることができる。又は、型紙データ処理部215は、当初の型紙データの寸法に対する差分寸法を有しているため、この差分寸法を利用者情報に関連付けて、当初の型紙データとともに製造システム16に送ることができる(寸法提供ステップ)。 Further, the paper pattern data processing unit 215 can send the finalized paper pattern data to the manufacturing system 16 in association with the user information. Alternatively, since the pattern data processing unit 215 has a difference dimension with respect to the dimension of the initial pattern data, the difference dimension can be associated with the user information and sent to the manufacturing system 16 together with the initial pattern data ( Dimension providing step).

衣服モデル処理部214は、型紙データ処理部215から得た型紙データから衣服の3Dデータである3D衣服データを作成する。3D衣服データは、衣服に規定される各種の寸法を有している。衣服に規定される主な寸法は、例えば、着丈L1、袖丈L2(図示略)、裄丈L3(図示略)などである。また、衣服モデル処理部214は、3D衣服データに対応する利用者2の体形寸法として、例えば、身長H,肩幅2S、首囲2N、胸囲2B、ウエスト2W、ウエスト(腰骨上)2G、ヒップ2H、股下2I、太もも回り2T、ふくらはぎ回り2C、足首回り2A、腕回り2AA、腕長さ2ALを有している。 The garment model processing unit 214 creates 3D garment data, which is 3D data of garments, from the pattern data obtained from the pattern data processing unit 215. The 3D garment data has various dimensions specified for the garment. The main dimensions defined for clothing are, for example, length L1, sleeve length L2 (not shown), sleeve length L3 (not shown), and the like. Further, the garment model processing unit 214 has, for example, height H, shoulder width 2S, neck circumference 2N, chest circumference 2B, waist 2W, waist (above the hipbone) 2G, and hips 2H as body shape dimensions of the user 2 corresponding to 3D garment data. , Inseam 2I, thigh circumference 2T, calf circumference 2C, ankle circumference 2A, arm circumference 2AA, arm length 2AL.

衣服モデル処理部214は、表示操作モジュール23の操作部232で操作された寸法の変更の指示を受けることができる。衣服モデル処理部214は、表示操作モジュール23から受けた寸法変更の指示を、型紙データを変更するために型紙データ処理部215に送る。 The garment model processing unit 214 can receive an instruction to change the dimensions operated by the operation unit 232 of the display operation module 23. The garment model processing unit 214 sends a dimensional change instruction received from the display operation module 23 to the pattern data processing unit 215 in order to change the pattern data.

図7を参照して、型紙データの変更について、ズボンCを例に説明する。
衣服モデル処理部214は、利用者2等の操作によって、総丈aであるズボンCの3D衣服データに対して、裾上げ又は裾下げが長さxだけ行われたことを表示操作モジュール23から受け取る。このとき、衣服モデル処理部214は、単に、3D衣服データの総丈aを長さxだけ変更して再表示させることもできるが、それでは、衣服の製造に利用される型紙データが変更されないため、表示部231に表示されている裾上げや裾下げされた衣服を製造することができない。
With reference to FIG. 7, the change of the pattern data will be described by taking the trousers C as an example.
The garment model processing unit 214 indicates from the display operation module 23 that hemming or hem lowering is performed by the length x for the 3D garment data of the trousers C having the total length a by the operation of the user 2 or the like. receive. At this time, the garment model processing unit 214 may simply change the total length a of the 3D garment data by the length x and display it again, but that does not change the pattern data used for manufacturing the garment. , It is not possible to manufacture the hem-up or hem-down garment displayed on the display unit 231.

この点、本実施形態では、図2,図7及び図8を参照して説明すると、衣服モデル処理部214は、表示操作モジュール23から受け取った3D衣服データに対する裾上げや裾下げの指示を型紙データ処理部215に送る。型紙データ処理部215は、図8に示す型紙データKに対して、裾上げや裾下げの指示に対応する部位のサイズを変更する。具体的には、型紙K1〜K5において、裾に対応する部分を有する型紙K1〜K4の対応部分の長さを裾上げや裾下げで指示された長さxだけ変化させる。このとき、型紙データKは、型紙のサイズ変更ルールに従い、関連箇所のサイズも自動的に微調整される。これにより、型紙データ処理部215は、表示操作モジュール23の利用者2等によって指示された衣服の寸法の変更を型紙データKに反映させる。また、型紙データ処理部215は、寸法の変更が反映された型紙データKを確定して衣服モデル処理部214に送る。 In this regard, in the present embodiment, explaining with reference to FIGS. 2, 7 and 8, the garment model processing unit 214 gives instructions for hemming and hemming with respect to the 3D garment data received from the display operation module 23. It is sent to the data processing unit 215. The paper pattern data processing unit 215 changes the size of the portion corresponding to the instruction of hemming or hemming with respect to the paper pattern data K shown in FIG. Specifically, in the patterns K1 to K5, the length of the corresponding portion of the patterns K1 to K4 having the portion corresponding to the hem is changed by the length x indicated by hemming or hem lowering. At this time, in the pattern data K, the size of the related portion is automatically finely adjusted according to the pattern size change rule. As a result, the pattern data processing unit 215 reflects the change in the size of the clothes instructed by the user 2 or the like of the display operation module 23 in the pattern data K. Further, the pattern data processing unit 215 determines the pattern data K reflecting the change in dimensions and sends it to the garment model processing unit 214.

図2に示す、衣服モデル処理部214は、型紙データ処理部215から寸法の変更された型紙データKが送られたことに応じて、寸法の変更された型紙データKに基づいて3D衣服データを作成する。そして、この3D衣服データが着用処理部30に送られることで、寸法の変更された衣装を3Dアバターに着用させた変更画像が生成されて、表示操作モジュール23の表示部231に表示される。これにより、利用者2は、変更結果の反映された変更画像を確認して、更なる寸法変更や寸法の確定を行うことができる。 The garment model processing unit 214 shown in FIG. 2 receives 3D garment data based on the dimensionally changed pattern data K in response to the dimensionally changed pattern data K being sent from the pattern data processing unit 215. create. Then, by sending the 3D clothing data to the wearing processing unit 30, a changed image in which the costume with the changed dimensions is worn by the 3D avatar is generated and displayed on the display unit 231 of the display operation module 23. As a result, the user 2 can confirm the changed image in which the change result is reflected, and further change the dimensions and determine the dimensions.

(着用処理部30)
着用処理部30は、利用者が選択した衣服を3Dアバターに着用させる処理を行う。着用処理部30は、選択された衣服の3D衣服データと3Dアバターとの位置関係を調節し、3Dアバターに衣服を着用させた着用画像を生成するためのデータを生成する。また、着用処理部30は、3Dアバターに3D衣服データに基づいて着用させた衣服に生じる張り又はたるみを再現した着用画像を生成するためのデータを作成する。後述するように、図9に示すシャツC1や図10に示すズボンC2のように、着用させた衣服のシルエット、各部におけるラインの形状、及び、生地表面に生じる張りやシワや捩れが再現されるようにする。そして、着用処理部30は、着用画像を表示するためのデータを表示操作モジュール23に出力する。
(Wearing processing unit 30)
The wearing processing unit 30 performs a process of causing the 3D avatar to wear the clothes selected by the user. The wearing processing unit 30 adjusts the positional relationship between the 3D clothing data of the selected clothing and the 3D avatar, and generates data for generating a wearing image in which the 3D avatar wears the clothing. In addition, the wearing processing unit 30 creates data for generating a wearing image that reproduces the tension or slack that occurs in the clothes worn by the 3D avatar based on the 3D clothes data. As will be described later, as in the shirt C1 shown in FIG. 9 and the trousers C2 shown in FIG. 10, the silhouette of the worn clothes, the shape of the lines in each part, and the tension, wrinkles, and twists that occur on the surface of the fabric are reproduced. To do so. Then, the wearing processing unit 30 outputs data for displaying the wearing image to the display operation module 23.

図4に示すように、詳述すると、着用処理部30は、姿勢特定部31、着用データ処理部32、着用画像提供部及び変更画像提供部としての着用画像処理部33、着用警告部34、圧力データ処理部35、着圧画像処理部36、圧力警告部37、重ね着補正部38、重ね着候補選択部39、服飾品追加部40とを有している。 As shown in FIG. 4, in detail, the wearing processing unit 30 includes a posture specifying unit 31, a wearing data processing unit 32, a wearing image providing unit, a wearing image processing unit 33 as a changed image providing unit, and a wearing warning unit 34. It has a pressure data processing unit 35, a pressure image processing unit 36, a pressure warning unit 37, a layering correction unit 38, a layering candidate selection unit 39, and a clothing addition unit 40.

姿勢特定部31は、試着に必要とされる任意姿勢の3Dアバターを特定して、利用者モデル作成部212により推定された利用者2の任意姿勢の3Dアバターを得る。
姿勢特定部31は、制御装置21の演算処理能力が高ければ、利用者モデル作成部212に姿勢を動的に変化させた3Dアバターを推定させることもできる。姿勢の動的変化は、プログラムされた順序での姿勢変化でもよいし、カメラ22等でリアルタイムに入力された動きに対応する姿勢変化であってもよい。
The posture specifying unit 31 identifies the 3D avatar of the arbitrary posture required for fitting, and obtains the 3D avatar of the arbitrary posture of the user 2 estimated by the user model creation unit 212.
The posture specifying unit 31 can also have the user model creation unit 212 estimate a 3D avatar whose posture is dynamically changed if the arithmetic processing capability of the control device 21 is high. The dynamic change of posture may be a posture change in a programmed order, or may be a posture change corresponding to a movement input in real time by a camera 22 or the like.

着用データ処理部32は、衣服を着用させることが定まった3Dアバターに対して、選択された衣服データの位置関係を特定して、3D衣服データを3Dアバターに着用させられるように調整する。また、着用データ処理部32は、3Dアバターと着用する3D衣服データとの間の余裕を位置毎に算出し、この算出した余裕に応じて3Dアバターに着用させた衣服に生じる張り、たるみ、シワ、捩れ等を再現した着用画像を生成するためのデータを作成する。なお、3D衣服データの調整は、3Dアバターが衣服を拘束する位置(肩、肘、腰、膝等)や、衣服が3Dアバターに拘束されながら受ける重力の影響も反映できる。 The wear data processing unit 32 specifies the positional relationship of the selected clothes data for the 3D avatar that has been determined to wear clothes, and adjusts the 3D clothes data so that the 3D avatar can wear the clothes. Further, the wearing data processing unit 32 calculates a margin between the 3D avatar and the 3D clothing data to be worn for each position, and the tension, sagging, and wrinkles generated in the clothing worn by the 3D avatar according to the calculated margin. Create data to generate a wearing image that reproduces twists and the like. The adjustment of the 3D clothing data can also reflect the position where the 3D avatar restrains the clothing (shoulders, elbows, hips, knees, etc.) and the influence of gravity that the clothing receives while being restrained by the 3D avatar.

着用データ処理部32は、例えば、図9に示す、シャツC1に表示されている生地表面の張りやシワ等、図10に示すズボンC2に表示されている生地表面の張りやシワ等が表現可能なように3D衣服データを調整する。 The wearing data processing unit 32 can express, for example, the tension and wrinkles on the surface of the fabric displayed on the shirt C1 and the tension and wrinkles on the surface of the fabric displayed on the pants C2 shown in FIG. Adjust the 3D garment data as follows.

なお、着用データ処理部32は、3Dアバターと3D衣服データとの間に重ね着する衣服が必要である場合、重ね着補正部38で3Dアバターに他の衣服を加えた補正モデルを得て、これに3D衣服データを着用させるように調節する。 When the wearing data processing unit 32 needs clothes to be layered between the 3D avatar and the 3D clothing data, the layering correction unit 38 obtains a correction model in which the 3D avatar is added with other clothing. Adjust it to wear 3D clothing data.

また、着用データ処理部32は、3Dアバターの姿勢変更、3D衣服データの変更等に応じて、3D衣服データを3Dアバターに着用させられるように調整する。
着用画像処理部33は、3Dアバターに着用可能に着用データ処理部32で調整された3D衣服データを3Dアバターに着用させた着用画像を生成するためのデータを生成する。着用画像処理部33は、調整された3D衣服データから3Dアバターによる拘束を考慮して、生地の弾性率や生地の重みによる影響を視認可能な表面状態を有した着用画像や変更画像を生成するためのデータを作成し、作成したデータを表示操作モジュール23に出力する(着用画像提供ステップ、変更画像提供ステップ)。
Further, the wearing data processing unit 32 adjusts so that the 3D avatar can wear the 3D garment data in response to a change in the posture of the 3D avatar, a change in the 3D garment data, or the like.
The wearing image processing unit 33 generates data for generating a wearing image in which the 3D clothing data adjusted by the wearing data processing unit 32 so as to be worn by the 3D avatar is worn by the 3D avatar. The wearing image processing unit 33 generates a wearing image or a modified image having a surface state in which the influence of the elasticity of the fabric and the weight of the fabric can be visually recognized from the adjusted 3D clothing data in consideration of the restraint by the 3D avatar. Data is created and the created data is output to the display operation module 23 (wearing image providing step, changed image providing step).

着用画像処理部33は、例えば、図9に示すように、生地表面に張りやシワ等を認識可能なシャツC1の画像を生成するためのデータを作成し、図10に示すように、生地表面に張りやシワ等を認識可能なズボンC2の画像を生成するためのデータを作成する。 For example, as shown in FIG. 9, the wearing image processing unit 33 creates data for generating an image of the shirt C1 capable of recognizing tension and wrinkles on the surface of the fabric, and as shown in FIG. 10, the surface of the fabric Create data for generating an image of trousers C2 that can recognize tension, wrinkles, etc.

なお、着用画像処理部33は、3D衣服データが変更されることに応じて、変更された3D衣服データに基づく衣服を3Dアバターに着用させた画像である変更画像を表示操作モジュール23に出力させる。これにより、利用者2の好みを、容易かつ迅速に注文する衣服に反映させることができるようになる。 In addition, the wearing image processing unit 33 causes the display operation module 23 to output a changed image which is an image of the 3D avatar wearing clothes based on the changed 3D clothes data in response to the change of the 3D clothes data. .. As a result, the preference of the user 2 can be easily and quickly reflected in the clothes to be ordered.

着用警告部34は、着用データ処理部32が3Dアバターに3D衣服データに基づく衣服を着用させることができないとき、警告を出力する。衣服を着用させることができないときとは、3Dアバターに対して、例えば、服装の着丈L1が長すぎたり、短すぎたりして、衣服の適用可能な範囲を超えるときである。衣服の適用可能な範囲は、体形データや採寸データ毎に定められており、各体形データや採寸データを3Dアバターのサイズと比較することで判定することができる。また、警告に利用する種類の体形データや採寸データを予め選択しておくこともできる。着用警告部34が警告することにより、利用者2は、着用する衣服のサイズや種類等を変更する必要があることを早い段階で認識できるようになる。 The wear warning unit 34 outputs a warning when the wear data processing unit 32 cannot make the 3D avatar wear clothes based on the 3D clothes data. The time when the clothes cannot be worn is when, for example, the length L1 of the clothes is too long or too short for the 3D avatar and exceeds the applicable range of the clothes. The applicable range of clothes is defined for each body shape data and measurement data, and can be determined by comparing each body shape data and measurement data with the size of a 3D avatar. It is also possible to select in advance the type of body shape data and measurement data used for warning. When the wear warning unit 34 warns, the user 2 can recognize at an early stage that it is necessary to change the size and type of clothes to be worn.

また、着用警告部34は、着用データ処理部32が3Dアバターに3D衣服データに衣服を着用させるとき、衣服の適用可能な範囲に対して調整量が多いとき警告を出力してもよい。調整中に調整範囲を超えるおそれも生じることから、予め警告することで、利用者2は、着用を続けるか、着用する衣服のサイズや種類等を変更するかを予め決めることができる。 Further, the wear warning unit 34 may output a warning when the wear data processing unit 32 causes the 3D avatar to wear clothes on the 3D clothes data, and when the adjustment amount is large with respect to the applicable range of the clothes. Since there is a possibility that the adjustment range may be exceeded during the adjustment, the user 2 can decide in advance whether to continue wearing the clothes or to change the size and type of the clothes to be worn by giving a warning in advance.

圧力データ処理部35は、着用データ処理部32で調整された3D衣服データを、3Dアバターに着用させたとき、衣服から3Dアバターに与えられる着圧を衣服の部分毎に算出する。なお、圧力データ処理部35は、3Dアバターと3D衣服データとの間に重ね着する衣服が必要である場合、重ね着補正部38で得た補正モデルを用い、3D衣服データの着用によって補正モデルに与えられる着圧を算出する。あるいは、圧力データ処理部35は、重ね着補正部38で得た補正モデルを用い、重ね着によって3Dアバターに与えられる着圧を算出してもよい。3Dアバターと衣服との間に余裕がある場合、着圧は算出されず、余裕がないとき3Dアバターの表面が衣服から受ける着圧が算出される。圧力データ処理部35は、着圧の算出において、生地の特性を考慮してもよい。例えば、圧力データ処理部35は、伸縮性の高い生地であれば着圧を低く算出し、伸縮性の低い生地であれば着圧を高く算出してもよい。 The pressure data processing unit 35 calculates the wearing pressure applied to the 3D avatar from the clothes for each part of the clothes when the 3D garment data adjusted by the wearing data processing unit 32 is worn by the 3D avatar. When the pressure data processing unit 35 requires clothing to be layered between the 3D avatar and the 3D clothing data, the pressure data processing unit 35 uses the correction model obtained by the layering correction unit 38 and corrects the model by wearing the 3D clothing data. Calculate the pressure applied to. Alternatively, the pressure data processing unit 35 may calculate the pressure applied to the 3D avatar by layering using the correction model obtained by the layering correction unit 38. If there is a margin between the 3D avatar and the clothes, the pressure is not calculated, and if there is no margin, the pressure that the surface of the 3D avatar receives from the clothes is calculated. The pressure data processing unit 35 may consider the characteristics of the fabric in calculating the pressure. For example, the pressure data processing unit 35 may calculate the wearing pressure to be low if the fabric has high elasticity, and may calculate the pressure to be high if the fabric has low elasticity.

図11に示すように、着圧画像処理部36は、圧力データ処理部35が算出した着圧を3D衣服データに重ね合わせた着圧分布画像7を作成する。着圧分布画像7は、3Dアバター上に着用させた3D衣服データであるズボンC3にかかる着圧を示す画像である。 As shown in FIG. 11, the pressure image processing unit 36 creates a pressure distribution image 7 in which the pressure calculated by the pressure data processing unit 35 is superimposed on the 3D clothing data. The pressure distribution image 7 is an image showing the pressure applied to the trousers C3, which is 3D clothing data worn on the 3D avatar.

着圧画像処理部36は、圧力範囲毎に相違する色を割り当て、着圧に対応する色を3D衣服データ上に配置することで、着圧分布を色で認識できるようにした着圧分布画像7を作成する。例えば、着圧が低い(平常)範囲から高い範囲に向かう順に、無色70、薄い色71、少し濃い色72、濃い色73で示されている。例えば、ズボンC3の着圧は、3Dアバターに対して腰回り及びふくらはぎで高く、着用するときつく感じられることが推定される。つまり、利用者2は、ズボンC3を着用すると、腰回り及びふくらはぎで着圧が高くなり、この箇所できつく感じられることが把握できる。利用者2は、着圧分布画像7を、衣服の微調整に利用したり、サイズ変更に利用したり、購入するか否かの判断の参考にしたりすることができる。 The pressure image processing unit 36 assigns different colors for each pressure range and arranges the colors corresponding to the pressure on the 3D garment data so that the pressure distribution can be recognized by the color. Create 7. For example, colorless 70, light color 71, slightly dark color 72, and dark color 73 are shown in order from the low (normal) range to the high pressure range. For example, it is presumed that the wearing pressure of the trousers C3 is higher at the waist and calf than the 3D avatar, and it feels tight when worn. That is, it can be understood that when the user 2 wears the trousers C3, the wearing pressure is increased around the waist and the calf, and the user 2 feels tight at this point. The user 2 can use the pressure distribution image 7 for fine-tuning clothes, changing the size, and as a reference for determining whether or not to purchase.

圧力警告部37は、算出された着圧が高い又は過剰であると判定するとき、着圧が高い旨の警告を出力する。これにより、利用者2は、この衣服はきつく感じられる可能性が高いことを認識できる。なお、圧力警告部37は、3Dアバターと3D衣服データとのサイズの相違が大きすぎて着圧の算出ができないとき、着圧の算出ができない旨を警告してもよい。 When the pressure warning unit 37 determines that the calculated pressure is high or excessive, it outputs a warning to the effect that the pressure is high. This allows the user 2 to recognize that the garment is likely to feel tight. The pressure warning unit 37 may warn that the pressure cannot be calculated when the size difference between the 3D avatar and the 3D clothing data is too large to calculate the pressure.

重ね着補正部38は、着用データ処理部32が3D衣服データを着用させるとき、3D衣服データが上着やコートである等、3Dアバターが他の衣服を着用している上に重ね着する衣服のデータである場合、3Dアバターに他の衣服を重ね着させた補正モデルを作成する。そして、重ね着補正部38は、3Dアバターに対応する補正モデルを着用データ処理部32に送る。 The layering correction unit 38 is a garment that the 3D avatar wears on top of other garments, such as when the wearing data processing unit 32 wears the 3D garment data, the 3D garment data is a coat or a coat. In the case of the data of, a correction model in which other clothes are layered on the 3D avatar is created. Then, the layering correction unit 38 sends the correction model corresponding to the 3D avatar to the wearing data processing unit 32.

重ね着候補選択部39は、重ね着補正部38に送られた3D衣服データに基づいて着用する衣服に対応する属性を判定して、重ね着される他の衣服を選択するとともに、選択した衣服に対応するデータを重ね着補正部38に送る。例えば、重ね着候補選択部39は、Yシャツが着用されるとき、他の衣服として下着を選択し、ジャケットが着用されるとき、他の衣服としてYシャツを選択し、コートが着用されるとき、他の衣服としてジャケットを選択する。また、重ね着候補選択部39は、重ね着候補選択部39が選択し得る他の衣服を、利用者2の嗜好などの他の要件の入力に応じて適宜変更するように構成されてもよい。 The layering candidate selection unit 39 determines the attribute corresponding to the clothing to be worn based on the 3D clothing data sent to the layering correction unit 38, selects other clothing to be layered, and selects the selected clothing. The data corresponding to is sent to the layering correction unit 38. For example, the layered candidate selection unit 39 selects underwear as other garment when the Y-shirt is worn, selects the Y-shirt as the other garment when the jacket is worn, and when the coat is worn. , Choose a jacket as another garment. Further, the layering candidate selection unit 39 may be configured to appropriately change other clothes that can be selected by the layering candidate selection unit 39 according to the input of other requirements such as the preference of the user 2. ..

服飾品追加部40は、着用画像に服飾品を追加表示させることができる。これにより、利用者2の嗜好がより一層反映された試着ができるようになる。
(衣服着用可視化の手順)
次に、衣服着用可視化システム20を利用して、3Dアバターに衣服を着用させて可視化する手順について説明する。まず、利用者2をカメラ22で撮影して2D画像データ又は3Dスキャンデータを得て利用者の体形をサイジングする。
The clothing item addition unit 40 can additionally display the clothing item on the wearing image. As a result, it becomes possible to try on the clothes that further reflect the taste of the user 2.
(Procedure for visualization of wearing clothes)
Next, a procedure for making a 3D avatar wear clothes and visualizing them by using the clothes wearing visualization system 20 will be described. First, the user 2 is photographed by the camera 22 to obtain 2D image data or 3D scan data, and the body shape of the user is sized.

(スマートフォンで行うサイジング)
スマートフォン等のカメラ22で取得した2D画像データからサイジングする。利用者2にとって簡便である。
(Sizing performed on a smartphone)
Sizing is performed from 2D image data acquired by a camera 22 such as a smartphone. It is convenient for user 2.

衣服着用可視化システム20は、2D画像データが取得される場合、2D画像データから利用者2の体形データを取得する。このとき、2D画像データからは直線的な長さ以外の寸法を正確に得ることは難しい。そこで、直線的な長さ以外の寸法精度を高めるために、性別、年齢、身長H、体重W、着丈L1、袖丈L2、裄丈L3等を追加設定するようにしてもよい。また、図5に示す、肩幅2S、首囲2N、胸囲2B、ウエスト2W、ウエスト(腰骨上)2G、ヒップ2H、股下2I、太もも回り2T、ふくらはぎ回り2C、足首回り2A、腕回り2AA、腕長さ2AL等を別途採寸して追加設定するようにしてもよい。 When the 2D image data is acquired, the clothing wearing visualization system 20 acquires the body shape data of the user 2 from the 2D image data. At this time, it is difficult to accurately obtain dimensions other than the linear length from the 2D image data. Therefore, in order to improve dimensional accuracy other than the linear length, gender, age, height H, weight W, length L1, sleeve length L2, sleeve length L3, and the like may be additionally set. In addition, as shown in FIG. 5, shoulder width 2S, neck circumference 2N, chest circumference 2B, waist 2W, waist (above the hip bone) 2G, hips 2H, inseam 2I, thigh circumference 2T, calf circumference 2C, ankle circumference 2A, arm circumference 2AA, arm The length 2AL or the like may be measured separately and additionally set.

上述したように、衣服着用可視化システム20は、2D画像データが取得されたとき、分析や学習を行ってもよい。例えば、2D画像データが得られたとき、性別、年齢、身長、体重等の身体的特徴に基づいて、ターゲットクラスを選定した上で該当クラスターをカバーできるようなクラスターの代表3Dの体形データを導きその形状を3Dの体形データとしてもよい。 As described above, the clothing wearing visualization system 20 may perform analysis and learning when the 2D image data is acquired. For example, when 2D image data is obtained, a representative 3D body shape data of a cluster that can cover the relevant cluster after selecting a target class based on physical characteristics such as gender, age, height, and weight is derived. The shape may be used as 3D body shape data.

(2Dカメラの全周画像によるサイジング)
カメラ22で利用者2の全周を撮影して得た2D画像データからサイジングする。店舗等に小さい撮影スペースで設置することができる。
(Sizing by the whole circumference image of 2D camera)
Sizing is performed from the 2D image data obtained by photographing the entire circumference of the user 2 with the camera 22. It can be installed in a small shooting space such as a store.

2Dカメラを、利用者2の全周に相対移動させることにより全周画像を撮影する。具体的には、回転台に立った利用者2を回転させて、固定された2Dカメラで撮影された全周画像から利用者2の体形データ及び採寸データを取得する。この場合、全周画像が取得できるため、多数のデータを取得できて推定精度が上がるが、撮影時間が長くなり利用者の負担が大きくなる。 An all-around image is taken by moving the 2D camera relative to the entire circumference of the user 2. Specifically, the user 2 standing on the turntable is rotated to acquire the body shape data and the measurement data of the user 2 from the all-around image taken by the fixed 2D camera. In this case, since the entire circumference image can be acquired, a large amount of data can be acquired and the estimation accuracy is improved, but the shooting time becomes long and the burden on the user increases.

(2Dカメラの複数方向画像によるサイジング)
カメラ22が利用者2の複数の方向から撮影して得た2D画像データからサイジングする。店舗等に多少広い撮影スペースが必要であるが、利用者2の移動による負担が小さくなる。
(Sizing with multi-directional images from 2D camera)
Sizing is performed from 2D image data obtained by the camera 22 taking pictures from a plurality of directions of the user 2. A slightly larger shooting space is required in a store or the like, but the burden of moving the user 2 is reduced.

複数台の2Dカメラで、利用者2の周囲の複数の方向から複数方向画像を撮影し、撮影した複数方向画像から利用者2の体形データ及び採寸データを取得することができる。この場合、特定の角度からの画像を取得するため、データが少なく推定誤差が大きくなるが、撮影時間が短くなり利用者の負担が小さくなる。 A plurality of 2D cameras can capture a multi-directional image from a plurality of directions around the user 2, and the body shape data and the measurement data of the user 2 can be acquired from the captured multi-directional image. In this case, since the image is acquired from a specific angle, the data is small and the estimation error is large, but the shooting time is shortened and the burden on the user is reduced.

(3Dスキャナーによるサイジング)
カメラ22が3Dスキャンしたスキャンデータから利用者2の体形データを高い精度で取得できる。
(Sizing with 3D scanner)
The body shape data of the user 2 can be acquired with high accuracy from the scan data scanned by the camera 22 in 3D.

店舗等で3Dスキャンデータが取得されるとき、3Dスキャンデータから体形データ及び採寸データを取得することができる。なお、3Dスキャンデータからであれば、体の任意の位置のサイズをいつでも取得することができる。また、3Dスキャンデータの取得は、深度センサのみによって行われてもよい。 When 3D scan data is acquired at a store or the like, body shape data and measurement data can be acquired from the 3D scan data. It should be noted that the size of any position on the body can be obtained at any time from the 3D scan data. Further, the acquisition of 3D scan data may be performed only by the depth sensor.

(衣服着用及び可視化)
利用者2は、3Dアバターが作成された後、図6(a)〜(d)に示すように表示操作モジュール23の操作を通じて、着用する衣服を選択し、着用した3Dアバターを確認しながら衣服の各種選択及び寸法の調整を行い、選択や寸法調整の完了後に注文を確定する。
(Wearing clothes and visualization)
After the 3D avatar is created, the user 2 selects the clothes to be worn through the operation of the display operation module 23 as shown in FIGS. 6 (a) to 6 (d), and the clothes while checking the worn 3D avatar. Make various selections and dimensional adjustments, and confirm the order after the selection and dimensional adjustments are completed.

まず、図6(a)に示すように、表示操作モジュール23には、選択対象の衣服の画像領域611,612,613及び「3Dデザインカスタム」ボタン614が表示される。着用対象の衣服の選択は、選択したい衣装の画像領域611,612,613をタッチ操作することで行われる。「3Dデザインカスタム」ボタン614は、選択対象の衣服について、サイズ変更や事前調整、ジャンル変更等を行う他の画面に遷移するときに操作される。 First, as shown in FIG. 6A, the display operation module 23 displays the image areas 611, 612, 613 and the “3D design custom” button 614 of the clothes to be selected. The clothing to be worn is selected by touching the image areas 611, 612, 613 of the costume to be selected. The "3D design custom" button 614 is operated when transitioning to another screen for resizing, pre-adjusting, changing the genre, or the like of the clothing to be selected.

図6(b)に示すように、着用させる衣服が選択されると、表示操作モジュール23には、着用画像領域620と、操作項目を表示するボタン621〜626とが表示される。着用画像領域620は、左右のスライド操作で、表示されている着用中の3Dアバターの向きを変更することができる。ボタン621〜626はそれぞれ、「生地」、「デザイン」、「ポケット」、「丈」、「袖調整」、及び「完成」の選択や調整等の実行画面への遷移に対応している。 As shown in FIG. 6B, when the clothes to be worn are selected, the display operation module 23 displays the wearing image area 620 and the buttons 621 to 626 for displaying the operation items. In the wearing image area 620, the orientation of the displayed 3D avatar being worn can be changed by sliding left and right. Buttons 621 to 626 correspond to transitions to the execution screen such as selection and adjustment of "fabric", "design", "pocket", "length", "sleeve adjustment", and "completion", respectively.

表示操作モジュール23は、「生地」、「デザイン」、「ポケット」が選択された場合、表示部231の下部領域630に選択肢の候補を表示する。ここでは、4つの選択領域631〜634が表示されている。4つの選択領域631〜634は、「選択肢A」、「選択肢B」、「選択肢C」、「選択肢D」に対応している。「生地」、「デザイン」、「ポケット」等に対する選択肢は、型紙データに付属設定されており、制御装置21は、着用画像や変更画像を生成するためのデータとともに、選択肢データを表示操作モジュール23に送っている。例えば、「生地」が選択された場合、選択領域631〜634には、生地のブランドが選択肢として列挙される。下部領域630は、選択肢が多い場合、選択領域を増やすことができるとともに、スクロール表示をすることが可能になる。 When the "fabric", "design", and "pocket" are selected, the display operation module 23 displays the option candidates in the lower area 630 of the display unit 231. Here, four selection areas 631 to 634 are displayed. The four selection areas 631 to 634 correspond to "option A", "option B", "option C", and "option D". Options for "fabric", "design", "pocket", etc. are set attached to the pattern data, and the control device 21 displays the option data together with the data for generating the wearing image and the changed image. Operation module 23 I am sending it to. For example, when "fabric" is selected, the fabric brands are listed as options in the selection areas 631-634. When there are many choices, the lower area 630 can increase the selection area and can be scrolled.

図6(c)に示すように、表示操作モジュール23は、「袖調整」が選択された場合、表示部231の下部領域650に「袖調整中・・・」と表示する袖調整用画面を表示する。ここでは、右の「袖の長さ」、「肩幅」、左の「袖の長さ」が調整可能である。右の「袖の長さ」は、「−」ボタン660、「+」ボタン661で変更可能であり変更量が表示域651に「cm」単位で表示される。「肩幅」は、「−」ボタン662、「+」ボタン663で変更可能であり変更量が表示域653に「cm」単位で表示される。左の「袖の長さ」は、「−」ボタン664、「+」ボタン665で変更可能であり変更量が表示域655に「cm」単位で表示される。各ボタン660〜665が操作されると、調整対象の部分が拡大着用画像640として拡大表示される。これにより、調整結果を確認しながら寸法の調整を行うことができる。調整可能な項目は衣服に応じて変化する。 As shown in FIG. 6C, the display operation module 23 displays a sleeve adjustment screen that displays “sleeve adjustment in progress ...” in the lower area 650 of the display unit 231 when “sleeve adjustment” is selected. indicate. Here, the right "sleeve length", "shoulder width", and left "sleeve length" can be adjusted. The "sleeve length" on the right can be changed with the "-" button 660 and the "+" button 661, and the amount of change is displayed in the display area 651 in "cm" units. The "shoulder width" can be changed with the "-" button 662 and the "+" button 663, and the amount of change is displayed in the display area 653 in "cm" units. The "sleeve length" on the left can be changed with the "-" button 664 and the "+" button 665, and the amount of change is displayed in the display area 655 in "cm" units. When each button 660 to 665 is operated, the portion to be adjusted is enlarged and displayed as an enlarged wearing image 640. As a result, the dimensions can be adjusted while checking the adjustment result. Adjustable items vary depending on the garment.

このとき、本実施形態では、表示部231に表示されている衣服の表示のみが変化しているのではなく、上述したように、当該衣服の型紙データの寸法を変化させたことの結果として、着用画像が変更画像に変化され、表示されている衣服の寸法も変化する。よって、表示操作モジュール23による調整が確定したとき、対応する型紙データの変更も完了していることから、当該型紙データに基づく衣服の製造が迅速に行えるようになっている。 At this time, in the present embodiment, not only the display of the clothes displayed on the display unit 231 is changed, but as a result of changing the dimensions of the pattern data of the clothes as described above, as a result, The worn image is changed to the changed image, and the size of the displayed clothes is also changed. Therefore, when the adjustment by the display operation module 23 is confirmed, the corresponding pattern data has been changed, so that the garment based on the pattern data can be manufactured quickly.

図6(d)に示すように、表示操作モジュール23は、「完成」ボタン626が選択された場合、注文を確定させる画面に遷移する。注文を確定させる画面では、着用画像670が調整済みの3D衣服データに基づく衣服を着用する3Dアバターが表示される。着用画像670は、表示領域のスライド操作で3Dアバターの向きを変えることができる。また、生地の選択結果が結果領域681に、デザインの選択結果が結果領域682に、ポケットの選択結果が結果領域683に、袖の選択結果が結果領域684に、袖調整の結果が結果領域685に表示される。なお、再調整ボタン671を操作すると、「完成」ボタン626を操作する以前の画面に遷移させることができる。表示部231の下部領域に販売額の表示領域672、及び、注文を確定させる「注文確定」ボタン673が表示される。「注文確定」ボタン673の操作により注文が確定されることによって、表示操作モジュール23による調整で変更された型紙データ又は型紙データを調整するための補正データが利用者情報とともに、制御装置21から製造システム16に送られて、注文された衣服が製造されるようになる。 As shown in FIG. 6D, the display operation module 23 transitions to the screen for confirming the order when the “completion” button 626 is selected. On the screen for confirming the order, a 3D avatar that wears clothes based on the adjusted 3D clothes data of the wearing image 670 is displayed. The wearing image 670 can change the orientation of the 3D avatar by sliding the display area. Further, the fabric selection result is in the result area 681, the design selection result is in the result area 682, the pocket selection result is in the result area 683, the sleeve selection result is in the result area 684, and the sleeve adjustment result is in the result area 685. Is displayed in. By operating the readjustment button 671, the screen can be changed to the screen before the operation of the "completion" button 626. A sales amount display area 672 and an "order confirmation" button 673 for confirming an order are displayed in the lower area of the display unit 231. By confirming the order by operating the "order confirmation" button 673, the pattern data changed by the adjustment by the display operation module 23 or the correction data for adjusting the pattern data is manufactured from the control device 21 together with the user information. It is sent to the system 16 and the ordered garment is manufactured.

以上説明したように、本実施形態によれば、以下の効果が得られるようになる。
(1)利用者2が実際に衣服を着用することなくとも、利用者2の外形が反映された外形モデルに衣服が着用された様相を、表示操作モジュール23で確認することができるだけでなく、着用状態での衣服に対し寸法変更を行うことができる。また、変更された寸法が型紙データとして提供される。これにより、表示操作モジュール23で確認しながら、利用者2の嗜好に適合するように寸法変更した衣服、いわゆるパターンオーダーと言える衣服を製造することのできる型紙データが可能になる。すなわち、利用者2の衣服に対する嗜好を衣服に反映可能にすることができる。
As described above, according to the present embodiment, the following effects can be obtained.
(1) Even if the user 2 does not actually wear clothes, the display operation module 23 can not only confirm the appearance of the clothes being worn on the outer shape model reflecting the outer shape of the user 2. It is possible to change the dimensions of clothes while wearing them. In addition, the changed dimensions are provided as pattern data. This enables pattern data capable of manufacturing clothes whose dimensions have been changed to suit the tastes of the user 2, that is, clothes that can be said to be a so-called pattern order, while checking with the display operation module 23. That is, it is possible to reflect the user 2's preference for clothes on the clothes.

また、3Dアバターに対する衣服の着用と寸法変更とが行えるため、一部の寸法が変更された衣服を変更要請の都度実際に準備することが不要であり、さらに、手間ではあるが避けることのできない衣服の実際の着脱を行わなくてもよい。 In addition, since it is possible to wear clothes and change the dimensions of the 3D avatar, it is not necessary to actually prepare clothes whose dimensions have been changed each time a change request is made, and it is troublesome but unavoidable. It is not necessary to actually put on and take off the clothes.

(2)利用者2の外形に準じた3Dアバターは、利用者の体形寸法を把握可能にする画像であって、利用者2のプライバシーに関わる内容を含む。この点、表示操作モジュール23が利用者2の端末であることから、利用者2が自らの端末で、自身の体系的特徴を有する3Dアバターの着用した衣服の寸法を変更することができるため、自身の3Dアバターに対する衣服の着脱を自身の端末以外で操作されることがなく、また、利用者2の嗜好を衣服に反映することが容易になる。 (2) The 3D avatar that conforms to the outer shape of the user 2 is an image that makes it possible to grasp the body shape of the user, and includes content related to the privacy of the user 2. In this regard, since the display operation module 23 is the terminal of the user 2, the user 2 can change the size of the clothes worn by the 3D avatar having his / her systematic characteristics on his / her own terminal. The attachment / detachment of clothes to / from the own 3D avatar is not operated by other than the own terminal, and the preference of the user 2 can be easily reflected in the clothes.

(3)利用者2の発注に基づいて型紙データが製造元に提供されるため、製造業者と型紙データを共有するための利用者2の負荷が軽減可能である。そして、表示操作モジュール23で確認し、利用者2の嗜好に適合するように寸法変更された衣服、いわゆる注文生産と言えるような衣服が製造システム16で製造可能になる。 (3) Since the pattern data is provided to the manufacturer based on the order of the user 2, the load on the user 2 for sharing the pattern data with the manufacturer can be reduced. Then, the display operation module 23 confirms, and the garment whose dimensions have been changed to suit the taste of the user 2, that is, garments that can be said to be custom-made, can be manufactured by the manufacturing system 16.

(4)表示操作モジュール23で着用した衣服から3Dアバターが受ける着圧が確認できるようになるため、衣服を着用した際の衣服の緩み具合や締め付け具合を利用者2は把握できる。よって、衣服の寸法を、外観の情報からだけではなく、衣服を着用した際の着心地に基づいて変更できる。そして、着心地を高めるための衣服のサイズや形状の変更が衣服着脱の手間なしに行えるようになる。 (4) Since the pressure received by the 3D avatar from the clothes worn by the display operation module 23 can be confirmed, the user 2 can grasp the looseness and tightening of the clothes when the clothes are worn. Therefore, the dimensions of the garment can be changed not only from the appearance information but also based on the comfort of wearing the garment. Then, the size and shape of the clothes can be changed to improve the comfort without the trouble of putting on and taking off the clothes.

(5)衣服の表面に生じる張り、たるみ、シワ、捩れ等の生地の重さや弾性率等に依拠する様相を表示操作モジュール23で確認できるため、衣服の寸法をより嗜好にあったものにすることができる。 (5) Since the display operation module 23 can confirm the appearance of tension, sagging, wrinkles, twists, etc. that occur on the surface of the clothes depending on the weight and elastic modulus of the cloth, the size of the clothes can be made more suitable for the taste. be able to.

(6)利用者の体形データや採寸データが得られたときの利用者2の任意の姿勢から、着用に適用する任意の姿勢としたときの3Dアバターを推定する。よって、当該推定された3Dアバターに衣服を着用させることができるので、利用者2の体形データや採寸データを取得するための画像撮影における利用者2の姿勢変更の負担を軽減できる。 (6) From the user 2's arbitrary posture when the user's body shape data and measurement data are obtained, the 3D avatar in the arbitrary posture applied to wearing is estimated. Therefore, since the estimated 3D avatar can be made to wear clothes, the burden of changing the posture of the user 2 in taking an image for acquiring the body shape data and the measurement data of the user 2 can be reduced.

また、利用者2は、画像を撮影したときの姿勢のみならず、所定の姿勢における着用態様を表示操作モジュール23で確認できるため衣服の着用における利便性が高まる。
(7)衣服の型紙データに表示操作モジュール23から設定された変更が反映される。また、型紙データに基づいて生成される変更画像にも表示操作モジュール23から設定された変更が反映される。つまり、表示操作モジュール23から設定された変更が型紙データを変更するとともに、変更画像に反映される。結果として、衣服を製造するための型紙の寸法と型紙データとの整合が担保されると共に、型紙データを型紙の寸法に変換する際に生じ得る誤差が低減される。そのため、利用者2が確認した変更画像と、利用者2が実際に衣服を着用した様相との乖離が低減される。
Further, since the user 2 can confirm not only the posture when the image is taken but also the wearing mode in the predetermined posture on the display operation module 23, the convenience in wearing clothes is enhanced.
(7) The change set from the display operation module 23 is reflected in the pattern data of the clothes. Further, the change set from the display operation module 23 is also reflected in the change image generated based on the pattern data. That is, the change set from the display operation module 23 changes the pattern data and is reflected in the changed image. As a result, the matching of the pattern size for manufacturing the garment and the pattern data is ensured, and the error that may occur when converting the pattern data to the pattern size is reduced. Therefore, the discrepancy between the changed image confirmed by the user 2 and the appearance in which the user 2 actually wears clothes is reduced.

(8)表示操作モジュール23において衣服の一部が変位される直感的な操作により着用画像における衣服の寸法を変更することができる。
なお、本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
(8) In the display operation module 23, the size of the clothes in the worn image can be changed by an intuitive operation in which a part of the clothes is displaced.
In addition, this embodiment can be implemented by changing as follows. The present embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.

・表示操作モジュール23は、タブレットやスマートフォンではなく、小型コンピュータや、大型コンピュータ等であってもよい。ディスプレーは、タッチパネルを有していてもよいし、タッチパネルを有していなくてもよい。タッチパネルを有していない場合、表示されたユーザインターフェース画像への操作がキーボードやマウス、その他利用者が入力操作することのできる機器からの操作であってもよい。 -The display operation module 23 may be a small computer, a large computer, or the like, instead of a tablet or a smartphone. The display may or may not have a touch panel. When the touch panel is not provided, the operation on the displayed user interface image may be an operation from a keyboard, a mouse, or other devices that can be input and operated by the user.

・データモジュール24は、少なくとも型紙データベース241を有していれば、重ね着データベース242及び服飾品データベース243の少なくとも一つを有していなくてもよい。体形モデルが衣服を着用するときのモデルとして作成さていたり、補正されていたりすれば、着用する衣服の型紙データが型紙データベース241にあれば着用画像や変更画像を生成するためのデータを作成することができる。 -The data module 24 does not have to have at least one of the layering database 242 and the clothing database 243 as long as it has at least the pattern database 241. If the body shape model is created as a model when wearing clothes or is corrected, if the pattern data of the clothes to be worn is in the pattern database 241, create data for generating a wearing image or a modified image. Can be done.

・表示操作モジュール23における表示態様は、図6に示される態様以外であってもよい。場合について例示したが、これに限らず、表示操作モジュール23における表示態様はその他の態様であってもよい。 The display mode in the display operation module 23 may be other than the mode shown in FIG. The case has been illustrated, but the present invention is not limited to this, and the display mode in the display operation module 23 may be another mode.

図12は、表示操作モジュール23の一態様を示す図である。表示部231には、着用画像又は変更画像810が表示されており、3Dアバターの着用する衣服には張り、たるみ、シワ、捩れ等が表現されている。表示部231には、着圧分布画像を表示するボタン821、着用した3Dアバターの見える角度を切り替えるボタン822が配置されている。ボタン821の操作で着用画像又は変更画像810は着圧分布画像に切り替えられ、ボタン822の操作で3Dアバターの向きが3方向、又はその他の複数の向きに切り替えられる。また、表示部231には、コーディネート部830が設けられており、コーディネートすることのできる衣服が選択可能に表示されている。例えば、トップス選択ボタン831とボトムス選択ボタン832とが表示されており、衣服の上下であるトップスC4とボトムスC5との色合わせやデザイン合わせ等のための3Dアバターの衣服の着せ替えが簡単に行えるようになっている。これによっても、利用者の体形が再現された3Dアバターに着用した上下のコーディネートや着圧の確認等を、店舗での試着体験を代替するようにして行うことができるようになる。 FIG. 12 is a diagram showing one aspect of the display operation module 23. A worn image or a modified image 810 is displayed on the display unit 231, and tension, sagging, wrinkles, twists, and the like are expressed on the clothes worn by the 3D avatar. On the display unit 231, a button 821 for displaying the pressure distribution image and a button 822 for switching the viewing angle of the worn 3D avatar are arranged. The wearing image or the changed image 810 is switched to the pressure distribution image by operating the button 821, and the orientation of the 3D avatar is switched to three directions or a plurality of other orientations by operating the button 822. Further, the display unit 231 is provided with a coordination unit 830, and clothes that can be coordinated are displayed so as to be selectable. For example, the tops selection button 831 and the bottoms selection button 832 are displayed, and it is possible to easily change the clothes of the 3D avatar for color matching and design matching between the tops C4 and bottoms C5, which are the top and bottom of the clothes. It has become like. This also makes it possible to coordinate the top and bottom worn on the 3D avatar that reproduces the user's body shape, check the wearing pressure, etc., as a substitute for the fitting experience at the store.

・表示操作モジュール23に表示される着用画像について、着用する場面や頻度、流行を反映させてもよい。例えば、着用画像における衣服の寸法は、利用者の体形寸法のみで定まることはなく、購入対象となる衣服を着用する場面、購入対象となる衣服を着用する頻度、流行に対する利用者の意識、衣服を購入する目的等に応じて区々である。これにより、衣服着用可視化システムは、利用者の衣服に対する嗜好を好適に反映させることができる。 -The wearing image displayed on the display operation module 23 may reflect the scene, frequency, and fashion of wearing. For example, the size of clothes in a wearing image is not determined only by the body shape size of the user, but the scene of wearing the clothes to be purchased, the frequency of wearing the clothes to be purchased, the user's awareness of fashion, and the clothes. It depends on the purpose of purchasing the item. Thereby, the clothing wearing visualization system can preferably reflect the user's preference for clothing.

(利用者による変更のさせかたの変形例)
・「袖の長さ」や「肩幅」を「−」ボタンや「+」ボタンで調整する場合について説明したが、これに限らず、調整することができるのであれば、ドラッグ操作や、スライダー操作、マウスのホイール操作、上下キー操作等であってもよい。衣服を少しずつ調整できるのに適したインターフェースであれば、その種類は限られない。例えば、表示操作モジュール23において衣服の一部が変位される操作により寸法を変更することができる。
(Modification example of how to make changes by the user)
-The case of adjusting "sleeve length" and "shoulder width" with the "-" button and "+" button has been explained, but it is not limited to this, and if it can be adjusted, drag operation or slider operation , Mouse wheel operation, up / down key operation, etc. The type of interface is not limited as long as the interface is suitable for adjusting clothes little by little. For example, in the display operation module 23, the dimensions can be changed by an operation in which a part of the clothes is displaced.

(型紙データの寸法を変更する変形例)
・上記実施形態では、表示操作モジュール23の操作によって型紙データの寸法が変更される場合について例示した。しかし、衣服製造に利用されるデータは、表示用データとは相違するデータであって、表示用データに基づいて表示される画像に対して行われる調整操作で変更されるデータであれば、型紙データには限られない。つまり、衣服製造に利用されるデータは、まず、変更操作に応じてデータが変更され、次に、このデータの変更に応じて表示用のデータを変更させて、その結果、表示される画像が更新されるように構成することのできるデータであればよい。
(Modification example of changing the dimensions of paper pattern data)
-In the above embodiment, the case where the size of the pattern data is changed by the operation of the display operation module 23 has been illustrated. However, if the data used for garment manufacturing is different from the display data and is changed by the adjustment operation performed on the image displayed based on the display data, the pattern paper Not limited to data. That is, the data used for garment manufacturing is first changed according to the change operation, and then the display data is changed according to the change of this data, and as a result, the displayed image is displayed. Any data that can be configured to be updated will do.

・衣服モデル処理部214は、表示操作モジュール23から受け取った3D衣服データに対する変更の指示と3D衣服データとを用いて、寸法の変更された3D衣服データを作成してもよい。そして、この3D衣服データが着用処理部30に送られることで、寸法の変更された衣装を3Dアバターに着用させた変更画像が生成されて、表示操作モジュール23の表示部231に表示されてもよい。すなわち、衣服モデル処理部214は、3D衣服データを変更する機能と、変更の指示内容を保持する機能と、を備えて、型紙データ処理部215に型紙データKを変更させずに、変更画像を生成するためのデータを着用処理部30に作成させて、変更の指示内容を製造データとして提供する構成であってもよい。 -The garment model processing unit 214 may create the 3D garment data whose dimensions have been changed by using the change instruction for the 3D garment data received from the display operation module 23 and the 3D garment data. Then, by sending this 3D clothing data to the wearing processing unit 30, even if a changed image in which the costume with the changed dimensions is worn by the 3D avatar is generated and displayed on the display unit 231 of the display operation module 23. Good. That is, the garment model processing unit 214 has a function of changing the 3D garment data and a function of holding the instruction content of the change, and the changed image is displayed without causing the pattern data processing unit 215 to change the pattern data K. The data to be generated may be created by the wearing processing unit 30, and the content of the change instruction may be provided as manufacturing data.

(任意の姿勢の利用者外形情報から所定の姿勢を推測する変形例)
・姿勢特定部31がカメラ22等でリアルタイムに入力された動きに対応する姿勢変化を推定可能であるとき、着用処理部30は、リアルタイムに推定された姿勢の3Dアバターに、推定された姿勢に対応させた衣服を着用させる処理を行って、着用画像や変更画像を生成するためのデータを作成してもよい。そして、表示操作モジュール23でリアルタイムの姿勢変化に対応する着用画像や変更画像を確認することができるようにしてもよい。
(A modified example of estimating a predetermined posture from the user's external shape information of an arbitrary posture)
When the posture specifying unit 31 can estimate the posture change corresponding to the movement input in real time by the camera 22 or the like, the wearing processing unit 30 changes the posture to the estimated posture by the 3D avatar of the posture estimated in real time. Data for generating a wearing image or a modified image may be created by performing a process of wearing the corresponding clothes. Then, the display operation module 23 may be able to confirm the wearing image and the changed image corresponding to the real-time posture change.

・また、着用処理部30は、リアルタイムに推定された姿勢の3Dアバターに、推定された姿勢に対応させた衣服を着用させたときの着圧分布画像を作成してもよい。そして、表示操作モジュール23でリアルタイムの姿勢変化に対応する着圧分布画像を確認することができるようにしてもよい。 Further, the wearing processing unit 30 may create a pressure distribution image when the 3D avatar with the posture estimated in real time is made to wear clothes corresponding to the estimated posture. Then, the display operation module 23 may be able to confirm the pressure distribution image corresponding to the real-time posture change.

(たるみの表示の変形例)
・上記実施形態では、着用画像処理部33は、着用画像や変更画像のなかの衣服が、重力や張力を受けながら外形モデルから受ける拘束力によって生じる表面状態を表示操作モジュール23に提供する場合について説明した。しかし、これに限らず、着用画像処理部33は、生地の張り、たるみ、シワ、捩れの一部や全部を認識できない着用画像や変更画像を生成するためのデータを作成したり、重力の影響を小さく、又は全く考慮しない着用画像や変更画像を生成するためのデータを作成してもよい。これにより、着用画像処理部33による画像処理負荷を低減させてリアルタイム性を高めることができたり、処理能力の低い利用者端末等での処理を可能にしたりすることができる。
(Modified example of slack display)
-In the above embodiment, the wearing image processing unit 33 provides the display operation module 23 with a surface state generated by the restraining force received from the external model while the clothing in the wearing image or the modified image receives gravity or tension. explained. However, not limited to this, the wearing image processing unit 33 creates data for generating a wearing image or a modified image that cannot recognize a part or all of the tension, sagging, wrinkles, and twists of the fabric, and is affected by gravity. Data may be created to generate a wearing image or a modified image that is small or does not consider at all. As a result, the image processing load of the wearing image processing unit 33 can be reduced to improve the real-time performance, and processing by a user terminal or the like having a low processing capacity can be enabled.

(着圧分布の表示の変形例)
・着圧分布の表示は色の違い以外で表現してもよい。例えば、張力の強いところはメッシュが拡がるような表現でもよいし、張力の強いところは色が薄くなるように濃淡による表現でもよい。また、身体に身につけた張力発生装置により擬似的な圧力が加えられるようにしてもよい。
(Modified example of display of pressure distribution)
-The display of the pressure distribution may be expressed by other than the difference in color. For example, a place where the tension is strong may be expressed by expanding the mesh, or a place where the tension is strong may be expressed by shading so that the color becomes lighter. In addition, a pseudo pressure may be applied by a tension generator worn on the body.

(発注の変形例)
・利用者は寸法を変更した型紙データに基づいて衣服を発注しなくてもよい。例えば、型紙データを取得や購入したり、一時的に保管させていたりしてもよい。
(Modified example of ordering)
-The user does not have to order clothes based on the pattern data with the changed dimensions. For example, the pattern data may be acquired or purchased, or may be temporarily stored.

・利用者は購入が目的ではなく、着用のみが目的であってもよい。モデル等が着用している衣服を自身の外形モデルに着用させることを試してみたりすることが目的であってもよい。例えば、利用者の嗜好に沿った衣服の着用はもちろん、購入できない衣服や、年代や季節、地域、行事等で相違する衣服等の着用を疑似体験するようにしてもよい。 -The user may not purchase, but only wear. The purpose may be to try to make the external model wear the clothes worn by the model or the like. For example, it is possible to experience not only wearing clothes according to the user's taste, but also wearing clothes that cannot be purchased or clothes that differ depending on the age, season, region, event, and the like.

(利用者端末の変形例)
・着用画像、変更画像、及び、着圧分布は、利用者端末以外の端末に表示されてもよい。例えば、パソコンの画面等に表示させてもよい。これにより、家族や、友人、店員等とともに着用可視化画像を見ることができる。
(Modified example of user terminal)
-The wearing image, the changed image, and the wearing pressure distribution may be displayed on a terminal other than the user terminal. For example, it may be displayed on the screen of a personal computer or the like. As a result, the wearing visualization image can be viewed with family members, friends, clerk, and the like.

また、利用者端末以外の端末に表示された着用可視化画像から衣服を調整することができてもよい。調整等が苦手な利用者であったとしても、主体的にかかわる利用者本人の嗜好に基づいて、家族や店員等が利用者のために衣服を調整することができてもよい。 In addition, the clothes may be adjusted from the wearing visualization image displayed on a terminal other than the user terminal. Even if the user is not good at making adjustments, the family or the clerk may be able to adjust the clothes for the user based on the preference of the user who is independently involved.

・着用画像、変更画像、及び、着圧分布は、家族や、友人、店員等が着用可視化画像を見ながら衣服を調整するようにしてもよい。利用者以外の操作によっても、利用者に適した調整した衣服データを作成することができ、利用者の利便性が高まる。 -The wearing image, the changed image, and the wearing pressure distribution may be adjusted by a family member, a friend, a clerk, or the like while looking at the wearing visualization image. It is possible to create clothes data adjusted to suit the user even by operations other than the user, which enhances the convenience of the user.

(可視化された着用衣服のサイズの利用者による変更の変形例)
・利用者の体形モデルは、レーザ光、又は、可視光線以外の光、X線、音波等で計測してもよい。よって、カメラ22は、2D画像データを取得するシステムでもよいし、3Dボディスキャンシステムであってもよい。2D画像データを取得するシステムは、例えば、CCDカメラやCMOSカメラである。3Dボディスキャンシステムは、例えば、インテル社のRealSenseシリーズである。
(Variation example of change by user of visualized wearable clothing size)
-The user's body shape model may be measured by laser light, light other than visible light, X-ray, sound wave, or the like. Therefore, the camera 22 may be a system for acquiring 2D image data or a 3D body scan system. The system for acquiring 2D image data is, for example, a CCD camera or a CMOS camera. The 3D body scan system is, for example, Intel's RealSense series.

・利用者の体形モデルは、利用者が測定個所の肌を露出させた状態、体に密着した衣服をつけている状態、衣服を着ている状態等で測定してもよい。
利用者が測定個所の肌を露出させた状態で測定された体形モデルは、利用者の体形状を示すデータとして利用できる。着用可視化の対象となる衣服の下に他の衣服を重ねときには、他の衣服のデータを重ねることで体形を補正することができる。
-The body shape model of the user may be measured in a state where the user exposes the skin at the measurement location, a state in which the user wears clothes in close contact with the body, a state in which the user wears clothes, and the like.
The body shape model measured by the user with the skin at the measurement location exposed can be used as data showing the user's body shape. When other clothes are layered under the clothes to be visualized, the body shape can be corrected by superimposing the data of the other clothes.

体に密着した測定用衣服をつけている状態で測定された体形モデルは、測定用衣服に付された線、ドット、図柄、模様などのマークを体形データの測定に利用することができる。 The body shape model measured while wearing the measurement garment in close contact with the body can use marks such as lines, dots, patterns, and patterns attached to the measurement garment for measuring body shape data.

衣服を着ている状態で測定された体形モデルは、その衣服の上に着用する衣服の着用可視化に利用することができる。逆に、着ている衣服を取り除くようなデータ補正を行うことで、体形データを作成することができる。このとき、着ている衣服を推定したり、利用者が入力したりすることでデータ補正の精度を高めることができるようになる。 The body shape model measured while wearing clothes can be used to visualize the wearing of clothes to be worn on the clothes. On the contrary, the body shape data can be created by performing data correction such as removing the clothes worn. At this time, the accuracy of data correction can be improved by estimating the clothes worn or inputting by the user.

・上記実施形態では、表示操作モジュール23と制御装置21とが別に設けられる場合について説明した。しかしこれに限らず、制御装置の一部又は全部の機能が表示操作モジュールに含まれていてもよい。表示操作モジュールに、着用処理部、型紙データ処理部、及び衣服モデル処理部が含まれていれば、着用画像の確認、画面での寸法調整、型紙データの変更、3D衣服データの変更、変更画像の生成を利用者端末で行えるようになり、着用が容易に行えるようにもなる。 -In the above embodiment, the case where the display operation module 23 and the control device 21 are separately provided has been described. However, the present invention is not limited to this, and some or all the functions of the control device may be included in the display operation module. If the display operation module includes a wearing processing unit, a pattern data processing unit, and a garment model processing unit, it is possible to check the wearing image, adjust the dimensions on the screen, change the pattern data, change the 3D garment data, and change the image. Can be generated on the user terminal, and can be easily worn.

7…着圧分布画像、10…ネットワーク、11…POSデータサーバ、12…EC購買データサーバ、13…販売管理システム、14…商品データサーバ、15…利用者データサーバ、16…製造システム、20…衣服着用可視化システム、21…制御装置、22…カメラ、23…表示操作モジュール、24…データモジュール、30…着用処理部、31…姿勢特定部、32…着用データ処理部、33…着用画像処理部、34…着用警告部、35…圧力データ処理部、36…着圧画像処理部、37…圧力警告部、38…重ね着補正部、39…重ね着候補選択部、40…服飾品追加部、211…画像処理部、212…利用者モデル作成部、214…衣服モデル処理部、215…型紙データ処理部、216…記憶装置、231…表示部、232…操作部、241…型紙データベース(型紙DB)、242…重ね着データベース(重ね着DB)、243…服飾品データベース(服飾品DB)、611〜613…画像領域、620…着用画像領域、614,621〜626…ボタン、630…下部領域、631〜634…選択領域、640…拡大着用画像、650…下部領域、651,653,655…表示域、660〜665…ボタン、670…着用画像、671…再調整ボタン、672…表示領域、673…ボタン、681〜685…結果領域、810…変更画像、821,822…ボタン、830…コーディネート部、831…トップス選択ボタン、832…ボトムス選択ボタン、C1…シャツ、C,C2,C3…ズボン、C4…トップス、C5…ボトムス。 7 ... Pressure distribution image, 10 ... Network, 11 ... POS data server, 12 ... EC purchasing data server, 13 ... Sales management system, 14 ... Product data server, 15 ... User data server, 16 ... Manufacturing system, 20 ... Clothes wearing visualization system, 21 ... control device, 22 ... camera, 23 ... display operation module, 24 ... data module, 30 ... wearing processing unit, 31 ... posture specifying unit, 32 ... wearing data processing unit, 33 ... wearing image processing unit , 34 ... Wearing warning unit, 35 ... Pressure data processing unit, 36 ... Pressure image processing unit, 37 ... Pressure warning unit, 38 ... Layering correction unit, 39 ... Layering candidate selection unit, 40 ... Clothing addition unit, 211 ... image processing unit, 212 ... user model creation unit, 214 ... clothing model processing unit, 215 ... pattern data processing unit, 216 ... storage device, 231 ... display unit, 232 ... operation unit, 241 ... pattern database (pattern DB) ), 242 ... Layering database (layering DB), 243 ... Clothing database (clothing DB), 611-613 ... Image area, 620 ... Wearing image area, 614,621-626 ... Button, 630 ... Lower area, 631-634 ... Selected area, 640 ... Enlarged wearing image, 650 ... Lower area, 651,653,655 ... Display area, 660-665 ... Button, 670 ... Wearing image, 671 ... Readjustment button, 672 ... Display area, 673 ... button, 681-685 ... result area, 810 ... changed image, 821,822 ... button, 830 ... coordination section, 831 ... tops selection button, 832 ... bottoms selection button, C1 ... shirt, C, C2, C3 ... pants, C4 ... Tops, C5 ... Bottoms.

Claims (9)

利用者の外形を示す利用者外形情報から前記利用者の外形に準じた3次元の外形モデルを生成し、当該外形モデルに衣服を着用させた様相を示す着用画像を画像表示端末に提供する着用画像提供部と、
前記着用画像のなかの衣服の一部を前記画像表示端末の指定によって寸法の変更された衣服に変更した様相を示す変更画像を前記画像表示端末に提供する変更画像提供部と、
前記画像表示端末に表示された前記変更画像の確定を受けて前記変更画像に適合する衣服の寸法を取得し、当該寸法を前記衣服の製造データとして提供する寸法提供部とを備える
衣服着用可視化システム。
Wearing that generates a three-dimensional outer shape model according to the outer shape of the user from the user outer shape information showing the outer shape of the user, and provides the image display terminal with a wearing image showing the appearance of wearing clothes on the outer shape model. Image provider and
A modified image providing unit that provides the image display terminal with a modified image showing the appearance of changing a part of the clothing in the wearing image to clothing whose dimensions have been changed by the designation of the image display terminal.
A clothing wearing visualization system including a dimension providing unit that acquires the dimensions of clothes that match the modified image upon confirmation of the modified image displayed on the image display terminal and provides the dimensions as manufacturing data of the clothing. ..
前記画像表示端末は、前記利用者の端末である
請求項1に記載の衣服着用可視化システム。
The clothing wearing visualization system according to claim 1, wherein the image display terminal is a terminal of the user.
前記寸法提供部は、前記利用者の発注に基づいて前記利用者に関連付けた前記製造データを前記衣服の製造元に提供する
請求項1又は2に記載の衣服着用可視化システム。
The clothing wear visualization system according to claim 1 or 2, wherein the dimension providing unit provides the manufacturing data associated with the user based on the order of the user to the manufacturer of the clothing.
前記着用画像提供部は、前記着用画像のなかの衣服から前記外形モデルが受ける着圧の分布を前記画像表示端末にさらに提供する、及び、前記変更画像提供部は、前記変更画像のなかの衣服から前記外形モデルが受ける着圧の分布を前記画像表示端末にさらに提供することの少なくとも一方を行う
請求項1〜3のいずれか一項に記載の衣服着用可視化システム。
The wearing image providing unit further provides the image display terminal with the distribution of the wearing pressure received by the external model from the clothing in the wearing image, and the modified image providing unit further provides the clothing in the modified image. The clothing wearing visualization system according to any one of claims 1 to 3, further providing at least one of the distribution of the pressure applied to the external shape model to the image display terminal.
前記変更画像は、衣服を構成する生地の重さを反映した様相を示す
請求項1〜4のいずれか一項に記載の衣服着用可視化システム。
The clothing wearing visualization system according to any one of claims 1 to 4, wherein the modified image shows an aspect reflecting the weight of the fabric constituting the clothing.
前記外形モデルは、所定の姿勢に対応したモデルであり、
前記変更画像提供部は、前記利用者外形情報から利用者の任意の姿勢を把握し、当該任意の姿勢における前記利用者外形情報から前記所定の姿勢における前記外形モデルを推定する
請求項1〜5のいずれか一項に記載の衣服着用可視化システム。
The outer shape model is a model corresponding to a predetermined posture.
The modified image providing unit grasps an arbitrary posture of a user from the user external shape information, and estimates the external shape model in the predetermined posture from the user external shape information in the arbitrary posture. Claims 1 to 5 The clothing wearing visualization system according to any one of the above.
前記変更画像提供部は、衣服の型紙寸法に基づいて前記変更画像を生成し、
前記寸法提供部は、前記画像表示端末から設定された寸法変更操作に基づいて前記型紙寸法を変更し、当該変更後の型紙寸法を、前記変更画像に示す衣服の寸法とする
請求項1〜6のいずれか一項に記載の衣服着用可視化システム。
The modified image providing unit generates the modified image based on the pattern size of the garment, and generates the modified image.
The dimension providing unit changes the pattern size based on the size change operation set from the image display terminal, and sets the changed pattern size as the size of the clothes shown in the changed image. Claims 1 to 6. The clothing wearing visualization system according to any one of the above.
前記寸法変更操作は、前記画像表示端末に表示された前記変更画像のなかの衣服の一部を前記画像表示端末で変位させる操作である
請求項7に記載の衣服着用可視化システム。
The clothing wearing visualization system according to claim 7, wherein the dimensional change operation is an operation of displacing a part of clothes in the changed image displayed on the image display terminal on the image display terminal.
利用者の外形を示す利用者外形情報から前記利用者の外形に準じた3次元の外形モデルを生成し、当該外形モデルに衣服を着用させた様相を示す着用画像を画像表示端末に提供する着用画像提供ステップと、
前記着用画像のなかの衣服の一部を前記画像表示端末の指定によって寸法の変更された衣服に変更した様相を示す変更画像を前記画像表示端末に提供する変更画像提供ステップと、
前記画像表示端末に表示された前記変更画像の確定を受けて前記変更画像に適合する衣服の寸法を取得し、当該寸法を前記衣服の製造データとして提供する寸法提供ステップとを備える
衣服着用可視化方法。
Wearing that generates a three-dimensional outer shape model according to the outer shape of the user from the user outer shape information showing the outer shape of the user, and provides the image display terminal with a wearing image showing the appearance of wearing clothes on the outer shape model. Image provision steps and
A modified image providing step of providing the image display terminal with a modified image showing the appearance of changing a part of the clothing in the wearing image to clothing whose dimensions have been changed by the designation of the image display terminal.
A clothing wearing visualization method including a dimension providing step of acquiring the dimensions of a garment conforming to the modified image upon confirmation of the modified image displayed on the image display terminal and providing the dimensions as manufacturing data of the garment. ..
JP2019072111A 2019-04-04 2019-04-04 Clothing-wearing visualization system and clothing-wearing visualization method Pending JP2020170394A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019072111A JP2020170394A (en) 2019-04-04 2019-04-04 Clothing-wearing visualization system and clothing-wearing visualization method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019072111A JP2020170394A (en) 2019-04-04 2019-04-04 Clothing-wearing visualization system and clothing-wearing visualization method

Publications (1)

Publication Number Publication Date
JP2020170394A true JP2020170394A (en) 2020-10-15

Family

ID=72746767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019072111A Pending JP2020170394A (en) 2019-04-04 2019-04-04 Clothing-wearing visualization system and clothing-wearing visualization method

Country Status (1)

Country Link
JP (1) JP2020170394A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021089495A (en) * 2019-12-02 2021-06-10 株式会社Zozoテクノロジーズ Fitting support server, fitting supporting system, fitting support method and fitting support program
JP7023558B1 (en) * 2021-06-22 2022-02-22 株式会社Vrc Information processing equipment, 3D system, and information processing method
WO2022196514A1 (en) * 2021-03-17 2022-09-22 ソフトバンク株式会社 Data processing device, program, and data processing method
JP2023013348A (en) * 2021-07-15 2023-01-26 株式会社Zozo Information processing apparatus, information processing method, and information processing program
JP7214796B1 (en) 2021-07-15 2023-01-30 株式会社Zozo Information processing device, information processing method and information processing program
WO2023032647A1 (en) * 2021-08-31 2023-03-09 株式会社Symbol Program, information processing device, and method
JP7241842B1 (en) 2021-10-15 2023-03-17 株式会社Zozo Information processing device, information processing method, and information processing program
JP7242110B1 (en) 2022-09-20 2023-03-20 Synflux株式会社 Information processing system, information processing method, pattern data generation method and program
WO2023218861A1 (en) * 2022-05-12 2023-11-16 株式会社Nttドコモ Simulation device
JP2023170539A (en) * 2022-05-19 2023-12-01 株式会社Zozo Information processing apparatus, information processing method, and information processing program
JP7450688B1 (en) 2022-11-01 2024-03-15 Lineヤフー株式会社 Information processing device, information processing method, and information processing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09273017A (en) * 1996-04-02 1997-10-21 Toray Ind Inc Method for displaying wearing state of wear, production of wear and apparatus for assisting production of wear
JP2005050003A (en) * 2003-07-30 2005-02-24 Minolta Co Ltd Method and device for generation of generic posture model, and control method for generation of animation
JP2005240213A (en) * 2004-02-26 2005-09-08 Shima Seiki Mfg Ltd Method for wearing simulation of knit garment on human body model, its apparatus and program thereof
JP2018163658A (en) * 2017-03-24 2018-10-18 博克 柳▲瀬▼ Clothing design support apparatus, clothing design support program, clothing design support system, clothing design support method, and clothing manufacturing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09273017A (en) * 1996-04-02 1997-10-21 Toray Ind Inc Method for displaying wearing state of wear, production of wear and apparatus for assisting production of wear
JP2005050003A (en) * 2003-07-30 2005-02-24 Minolta Co Ltd Method and device for generation of generic posture model, and control method for generation of animation
JP2005240213A (en) * 2004-02-26 2005-09-08 Shima Seiki Mfg Ltd Method for wearing simulation of knit garment on human body model, its apparatus and program thereof
JP2018163658A (en) * 2017-03-24 2018-10-18 博克 柳▲瀬▼ Clothing design support apparatus, clothing design support program, clothing design support system, clothing design support method, and clothing manufacturing method

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021089495A (en) * 2019-12-02 2021-06-10 株式会社Zozoテクノロジーズ Fitting support server, fitting supporting system, fitting support method and fitting support program
JP7374740B2 (en) 2019-12-02 2023-11-07 株式会社Zozo Fitting support device, fitting support method, fitting support program
WO2022196514A1 (en) * 2021-03-17 2022-09-22 ソフトバンク株式会社 Data processing device, program, and data processing method
JP2022145677A (en) * 2021-03-17 2022-10-04 ソフトバンク株式会社 Data processing apparatus, program, and data processing method
JP7365457B2 (en) 2021-03-17 2023-10-19 ソフトバンク株式会社 Data processing device, program, and data processing method
JP7023558B1 (en) * 2021-06-22 2022-02-22 株式会社Vrc Information processing equipment, 3D system, and information processing method
WO2022269741A1 (en) * 2021-06-22 2022-12-29 株式会社Vrc Information processing device, 3d system, and information processing method
JP7214796B1 (en) 2021-07-15 2023-01-30 株式会社Zozo Information processing device, information processing method and information processing program
JP2023017135A (en) * 2021-07-15 2023-02-07 株式会社Zozo Information processing apparatus, information processing method, and information processing program
JP7273113B2 (en) 2021-07-15 2023-05-12 株式会社Zozo Information processing device, information processing method and information processing program
JP2023013348A (en) * 2021-07-15 2023-01-26 株式会社Zozo Information processing apparatus, information processing method, and information processing program
WO2023032647A1 (en) * 2021-08-31 2023-03-09 株式会社Symbol Program, information processing device, and method
JP7241842B1 (en) 2021-10-15 2023-03-17 株式会社Zozo Information processing device, information processing method, and information processing program
JP2023059608A (en) * 2021-10-15 2023-04-27 株式会社Zozo Information processing device, information processing method, and information processing program
WO2023218861A1 (en) * 2022-05-12 2023-11-16 株式会社Nttドコモ Simulation device
JP2023170539A (en) * 2022-05-19 2023-12-01 株式会社Zozo Information processing apparatus, information processing method, and information processing program
JP7407861B2 (en) 2022-05-19 2024-01-04 株式会社Zozo Information processing device, information processing method, and information processing program
JP7242110B1 (en) 2022-09-20 2023-03-20 Synflux株式会社 Information processing system, information processing method, pattern data generation method and program
WO2024062761A1 (en) * 2022-09-20 2024-03-28 Synflux株式会社 Information processing system, information processing method, method for generating pattern data, and program
JP2024043878A (en) * 2022-09-20 2024-04-02 Synflux株式会社 Information processing system, information processing method, paper pattern data generating method and program
JP7450688B1 (en) 2022-11-01 2024-03-15 Lineヤフー株式会社 Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
JP2020170394A (en) Clothing-wearing visualization system and clothing-wearing visualization method
EP3251536B2 (en) Method and system for the manufacture of a piece of apparel
KR101671649B1 (en) Method and System for 3D manipulated image combined physical data and clothing data
US9905019B2 (en) Virtual apparel fitting systems and methods
KR101775327B1 (en) Method and program for providing virtual fitting service
CN106659259B (en) Method for virtually selecting clothes
US8090465B2 (en) Fashion design method, system and apparatus
US20170046769A1 (en) Method and Apparatus to Provide A Clothing Model
US20150154691A1 (en) System and Method For Online Virtual Fitting Room
CN111602165A (en) Garment model generation and display system
JPH10340282A (en) Device and method for virtual try-on of clothes and clothes manufacturing device
EP1377920A1 (en) System and method for simulation of virtual wear articles on virtual models
JP6980097B2 (en) Size measurement system
US20230248099A1 (en) Method and device for providing at least one cutting pattern for an article of clothing to be produced individually for a customer
KR20140123228A (en) Apparatus and Method for providing three dimensional model which puts on clothes based on depth information
Gupta New directions in the field of anthropometry, sizing and clothing fit
WO2020230748A1 (en) Image generation device, method, and program, and virtual try-on system
Lim Three dimensional virtual try-on technologies in the achievement and testing of fit for mass customization
JP2001249957A (en) Automatic preparation method for paper pattern for clothes and automatic preparation system therefor
Zong et al. An exploratory study of integrative approach between 3D body scanning technology and motion capture systems in the apparel industry
KR20210130420A (en) System for smart three dimensional garment fitting and the method for providing garment fitting service using there of
Zhang Designing in 3D and Flattening to 2D Patterns
WO2021229579A1 (en) Personalized garment fit comparison and evaluation
Narang Augmented reality: a tool for better fit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003