JPWO2020009066A1 - Virtual fitting device, virtual fitting method, and virtual fitting program - Google Patents

Virtual fitting device, virtual fitting method, and virtual fitting program Download PDF

Info

Publication number
JPWO2020009066A1
JPWO2020009066A1 JP2019557892A JP2019557892A JPWO2020009066A1 JP WO2020009066 A1 JPWO2020009066 A1 JP WO2020009066A1 JP 2019557892 A JP2019557892 A JP 2019557892A JP 2019557892 A JP2019557892 A JP 2019557892A JP WO2020009066 A1 JPWO2020009066 A1 JP WO2020009066A1
Authority
JP
Japan
Prior art keywords
image
clothes
dimensional
virtual fitting
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019557892A
Other languages
Japanese (ja)
Other versions
JP6631988B1 (en
Inventor
裕史 中里
裕史 中里
佑介 實方
佑介 實方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BLOOMSCHEME, INC.
Original Assignee
BLOOMSCHEME, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BLOOMSCHEME, INC. filed Critical BLOOMSCHEME, INC.
Application granted granted Critical
Publication of JP6631988B1 publication Critical patent/JP6631988B1/en
Publication of JPWO2020009066A1 publication Critical patent/JPWO2020009066A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

3次元画像の合成画像を低負荷で生成可能な仮想試着技術を提供する。仮想試着装置は、モデルの頭部画像および当該モデルの体型情報を端末装置より受け付けるモデル情報受付部と、身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付ける衣服情報受付部と、複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより任意の複数の衣服に対応する2次元画像を抽出し、着衣順序に基づいて2次元画像を重合した重合画像を生成する生成処理部と、重合画像を体型情報に基づいて3次元画像に変換をする変換処理部と、3次元画像および頭部画像を端末装置へ送信する送信部と、を含んで構成されている。A virtual fitting technique capable of generating a composite image of three-dimensional images with a low load. The virtual fitting apparatus includes a model information receiving unit that receives a head image of a model and body type information of the model from a terminal device, a plurality of arbitrary clothes in the same body part, and a clothing order that receives the arbitrary clothing order. A two-dimensional image corresponding to an arbitrary plurality of clothes is extracted from the information receiving unit and an image information database obtained by converting the clothing state of a plurality of clothes into a two-dimensional image, and the two-dimensional image is superposed based on the clothing order. And a conversion processing unit that converts the superimposed image into a three-dimensional image based on the body shape information, and a transmission unit that transmits the three-dimensional image and the head image to the terminal device. ing.

Description

本発明は、仮想試着装置、仮想試着方法、および仮想試着プログラムに関する。 The present invention relates to a virtual fitting device, a virtual fitting method, and a virtual fitting program.

衣服を購入する際に試着をすることが通常行なわれる。試着をするために購入者は、衣服を販売する店舗に出向き、衣服を選択した上で試着用に設けられた空間に移動して試着を行なう。試着をするために購入者は、それまで着ていた衣服を脱衣する必要があり、これを狭い試着用の空間で行なうことは困難を伴う場合もあり、購入者にストレスを与える可能性がある。 Trying on clothes is usually done when purchasing clothes. In order to try on clothes, the purchaser goes to a store that sells clothes, selects clothes, moves to a space provided for try-on, and tries on clothes. The purchaser must undress the clothing they were wearing to try it on, and doing this in a tight fitting space can be difficult and can add stress to the purchaser. ..

一方、衣服などを購入するタイミングや場所に制限されないインターネットショップで衣服を購入することも近年では当たり前に行なわれている。しかし、この場合、購入者は、購入するか否かを迷っている商品の試着をできないため、購入を決断できずに購入を断念する場合や、購入したとしてもサイズが合わずに衣服を着衣することがないままになる場合がある。 On the other hand, in recent years, it has become commonplace to purchase clothes at an internet shop that is not restricted by the timing or place of purchasing clothes. However, in this case, the buyer cannot try on the product he is wondering whether or not to purchase it, so if he/she decides not to make a decision, he/she gives up the purchase, or even if he/she purchases it, the clothes do not fit and the clothes are not fit. You may be left without doing anything.

このような状況を改善すべく、インターネットを通じて購入を迷っている衣服を試着できるシステムが開発されている。例えば、特許文献1には、撮像部によりコード画像が形成されたコードラベルが取り付けられた試着者を撮像して、撮像画像内のコード画像の位置であるコード位置を検出して、服飾の画像を検出したコード位置を基準にして撮像画像上に配置した合成画像を生成することで合成画像を生成する仮想試着システムが開示されている。このシステムでは、試着者の一部位に一つの衣服を試着することができる。例えば、ハット、トップス、ボトムスのそれぞれに一つの衣服を選択可能としている。よって、この場合、試着者は、複数の衣服を重ねて試着することができない。 In order to improve such a situation, a system has been developed that allows the user to try on clothes he/she is unsure of purchasing through the Internet. For example, in Patent Literature 1, an image of a clothing item is captured by capturing an image of a fitting person to which a code label on which a code image is formed by an image capturing unit is attached, and detecting the code position that is the position of the code image in the captured image. There is disclosed a virtual fitting system that generates a composite image by generating a composite image arranged on a captured image based on the detected code position. In this system, one piece of clothes can be tried on to one part of the person trying on the clothes. For example, one piece of clothing can be selected for each of the hat, tops, and bottoms. Therefore, in this case, the fitting person cannot try on a plurality of clothes by stacking them.

重ね着を仮想空間で実現するために、3次元画像を複数重ねることが可能である。3次元画像を重ね合わせると、複数の衣服同士の上下関係を正確に再現することができず、内側の衣服が外側の衣服を突き抜けてしまう所謂「突き抜け」が発生してしまう場合がある。図16は、複数の衣服の3次元画像を合成およびその結果を示す模式図である。図からも明らかな通り、単に3次元画像を合成しただけでは、不確実性が高く、衣服同士の上下関係が適切に表現できない。このような合成画像は、試着画像としては不適切であり、購入者の衣服の購入の支援とならない可能性が高い。 It is possible to superimpose a plurality of three-dimensional images in order to realize layering in a virtual space. When the three-dimensional images are superposed on each other, the vertical relationship between the plurality of clothes cannot be accurately reproduced, and a so-called “penetration” in which the inner clothes penetrate the outer clothes may occur. FIG. 16 is a schematic diagram showing a combination of three-dimensional images of a plurality of clothes and the result thereof. As is clear from the figure, the uncertainty is high and the vertical relationship between the clothes cannot be properly expressed simply by combining the three-dimensional images. Such a composite image is unsuitable as a try-on image, and is unlikely to support the purchaser's purchase of clothes.

また、物理演算によって複数の衣服の3次元画像を合成することも可能である。物理演算を使用した合成結果の一例として、図17は、近接ポリゴンに強制的に近づける方法を用いて得られた合成画像を示す模式図である。図17に示すように、近接ポリゴンに強制的に近づける方法としてShrink Wrapと呼ばれる方法がある。図16に示す一般的な3次元画像の合成と比較すると、衣服同士の上下関係が適切に処理されていることがわかる。しかし、それでも表面上の凹凸を維持できなかったり、衣服の存在しない領域で不具合が生じたり、更に処理結果を事前に予測することができなかったり、実用性には乏しい。物理演算は、非常に計算負荷が高く、通常の機器では即座に処理を完了することは不可能であり、衣服の試着のように多数の3次元画像の合成画像を短時間で生成するような場合には不適切な方法である。一方、計算負荷を下げてしまうと、低品質な物理演算となり、場合によっては、衣服の突き抜けが発生することもある。仮想試着画像を得るために、物理演算を使用する場合、即座に3次元画像の合成処理を完了することは不可能であり、ユーザにストレスを与える可能性が高く、仮想試着画像を視聴できないため、衣服の購買にも至らない可能性がある。 It is also possible to synthesize three-dimensional images of a plurality of clothes by physical calculation. FIG. 17 is a schematic diagram showing a composite image obtained by using a method of forcibly approaching a neighboring polygon, as an example of a composite result using physical calculation. As shown in FIG. 17, there is a method called Shrink Wrap as a method for forcibly approaching a near polygon. It can be seen that the vertical relationship between clothes is appropriately processed as compared with the general three-dimensional image composition shown in FIG. However, it is still not practical because the unevenness on the surface cannot be maintained, a defect occurs in a region where clothes are not present, and the processing result cannot be predicted in advance. The physical calculation has a very high calculation load, and it is impossible to complete the processing immediately with a normal device. For example, it is possible to generate a composite image of many three-dimensional images in a short time like trying on clothes. In some cases it is an inappropriate method. On the other hand, if the calculation load is reduced, the quality of the physical calculation becomes low, and in some cases, the clothes may penetrate. When a physical operation is used to obtain a virtual fitting image, it is impossible to immediately complete the three-dimensional image synthesizing process, which is likely to cause stress to the user, and the virtual fitting image cannot be viewed. , There is a possibility that the purchase of clothes will not be reached.

3次元画像の合成画像の精度を上げるために、DCCツール上で処理可能な方法としてサーフェースディフォームなどの方法を取り入れることも考えられるが、計算負荷が高く、衣服の試着のように多数の3次元画像の合成画像を短時間で生成するような場合には不適切な方法である。 In order to improve the accuracy of the composite image of the three-dimensional image, it is possible to adopt a method such as surface deformation as a method that can be processed on the DCC tool, but the calculation load is high, and many methods such as clothing fitting are required. This is an unsuitable method when a composite image of three-dimensional images is generated in a short time.

特開2017−156957号公報JP, 2017-156957, A

そこで、発明者らは、計算負荷が低く、且つ、3次元画像の合成画像の精度を高める仮想試着装置、仮想試着方法、および仮想試着プログラムを考案するに至った。すなわち、本発明は上記事情に鑑みてなされたものであり、3次元画像の合成画像を低負荷で生成可能な仮想試着装置、仮想試着方法、および仮想試着プログラムを提供することを目的とする。 Therefore, the inventors have come up with a virtual fitting device, a virtual fitting method, and a virtual fitting program that have a low calculation load and improve the accuracy of a composite image of three-dimensional images. That is, the present invention has been made in view of the above circumstances, and an object thereof is to provide a virtual fitting device, a virtual fitting method, and a virtual fitting program that can generate a composite image of three-dimensional images with a low load.

(1)本発明の第1態様は、モデルの頭部画像および当該モデルの体型情報を端末装置より受け付けるモデル情報受付部と、身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付ける衣服情報受付部と、複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより任意の複数の衣服に対応する2次元画像を抽出し、着衣順序に基づいて2次元画像を重合した重合画像を生成する生成処理部と、重合画像を体型情報に基づいて3次元画像に変換をする変換処理部と、3次元画像および頭部画像を端末装置へ送信する送信部と、を含むことを特徴とする仮想試着装置に関する。 (1) According to a first aspect of the present invention, a model information receiving unit that receives a head image of a model and body type information of the model from a terminal device, a plurality of arbitrary clothes and a plurality of arbitrary clothes in the same body part. 2D image corresponding to a plurality of arbitrary clothes is extracted from the clothes information receiving unit that receives the clothes order and the image information database in which the clothes state of the plurality of clothes is converted into a two-dimensional image, and the two-dimensional image is obtained based on the clothes order. A generation processing unit that generates a superimposed image by superimposing images, a conversion processing unit that converts the superimposed image into a three-dimensional image based on body type information, and a transmission unit that transmits the three-dimensional image and the head image to the terminal device. And a virtual fitting apparatus including:

(2)上記(1)において、生成処理部は、任意の中間ポリゴンモデルを共通に使用して変換された2次元画像を重合することで重合画像を生成してもよい。 (2) In (1) above, the generation processing unit may generate a superimposed image by superimposing the converted two-dimensional images by commonly using an arbitrary intermediate polygon model.

(3)上記(2)において、変換処理部は、体型情報を基に任意の中間ポリゴンモデルを補正することでモデルの仮想人体モデルを生成してもよく、変換処理部は、仮想人体モデルに重合画像を更に重合することで重合画像を3次元画像に変換してもよい。 (3) In (2) above, the conversion processing unit may generate a virtual human body model of the model by correcting an arbitrary intermediate polygon model based on the body type information. The conversion processing unit converts the virtual human body model into a virtual human body model. The superimposed image may be converted into a three-dimensional image by further superimposing the superimposed image.

(4)上記(2)または(3)において、生成処理部は、複数の衣服の2次元画像に含まれる距離画像および法線画像を重合することで重合画像を生成してもよい。 (4) In (2) or (3) above, the generation processing unit may generate a superimposed image by superimposing a distance image and a normal image included in the two-dimensional images of a plurality of clothes.

(5)上記(4)において、生成処理部は、法線画像が含む一法線方向における距離画像が持つ距離の大きさを最内側衣服から最外側の衣服に向けて加算することで一法線方向における距離を算出することで重合画像を生成してもよい。 (5) In the above (4), the generation processing unit adds the magnitude of the distance held by the distance image in one normal direction included in the normal image from the innermost clothes to the outermost clothes. The superimposed image may be generated by calculating the distance in the line direction.

(6)上記(5)において、生成処理部は、法線画像が含む複数の法線方向のうち一法線方向における距離画像が持つ距離の大きさと、当該一法線方向の近傍の法線方向における距離画像が持つ距離の大きさとの差異に応じて、小さい距離を持つ法線方向の距離を大きい距離を持つ法線方向の距離に近づけることで重合画像を生成してもよい。 (6) In the above (5), the generation processing unit may measure the magnitude of the distance of the distance image in one normal direction among the plurality of normal directions included in the normal image, and the normal line near the one normal direction. The overlapped image may be generated by bringing the distance in the normal direction having a smaller distance closer to the distance in the normal direction having a larger distance, depending on the difference between the distance image in the direction and the distance size.

(7)上記(5)または(6)において、画像情報データベースは、複数の衣服の素材情報または剛性情報を更に含んでもよく、生成処理部は、素材情報または剛性情報を基に法線方向の距離を補正することで重合画像を生成してもよい。 (7) In the above (5) or (6), the image information database may further include material information or rigidity information of a plurality of clothes, and the generation processing unit determines the normal direction based on the material information or rigidity information. A superimposed image may be generated by correcting the distance.

(8)上記(4)〜(7)のいずれかにおいて、2次元画像は、色彩画像を更に含んでもよく、生成処理部は、3次元画像の色彩として、複数の衣服の2次元画像に含まれる距離画像および法線画像を重合した際に法線方向において最も外側に距離を持つ箇所の色彩を当該法線方向における色彩とすることで重合画像を生成してもよい。 (8) In any one of (4) to (7) above, the two-dimensional image may further include a color image, and the generation processing unit includes the color of the three-dimensional image in the two-dimensional images of a plurality of clothes. The superimposed image may be generated by setting the color of the portion having the outermost distance in the normal line direction as the color in the normal line direction when the distance image and the normal line image are overlapped.

(9)上記(8)において、生成処理部は、複数の衣服の外側衣服および当該外側衣服の内側衣服の色彩、および外側衣服の透過度に基づいて当該法線方向における色彩を補正することで重合画像を生成してもよい。 (9) In the above (8), the generation processing unit corrects the colors in the normal direction based on the colors of the outer clothes of the plurality of clothes and the inner clothes of the outer clothes, and the transparency of the outer clothes. A superimposed image may be generated.

(10)本発明の第2態様は、モデルの頭部画像および当該モデルの体型情報を端末装置より受け付けるステップと、身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付けるステップと、複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより任意の複数の衣服に対応する2次元画像を抽出し、着衣順序に基づいて2次元画像を重合した重合画像を生成するステップと、重合画像を体型情報に基づいて3次元画像に変換をするステップと、3次元画像および頭部画像を端末装置へ送信するステップと、を含むことを特徴とする仮想試着方法に関する。 (10) According to a second aspect of the present invention, a step of receiving a head image of a model and body type information of the model from a terminal device, a plurality of arbitrary clothes and a wearing order of the plurality of arbitrary clothes in the same body part. And a two-dimensional image corresponding to an arbitrary plurality of clothes is extracted from the image information database in which the clothing states of the plurality of clothes are converted into a two-dimensional image, and the two-dimensional image is superposed based on the clothing order. And a step of converting the superimposed image into a three-dimensional image based on the body shape information, and a step of transmitting the three-dimensional image and the head image to the terminal device. Regarding

(11)本発明の第3態様は、コンピュータに、モデルの頭部画像および当該モデルの体型情報を端末装置より受け付ける機能と、身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付ける機能と、複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより任意の複数の衣服に対応する2次元画像を抽出し、着衣順序に基づいて2次元画像を重合した重合画像を生成する機能と、重合画像を体型情報に基づいて3次元画像に変換をする機能と、3次元画像および頭部画像を端末装置へ送信する機能と、を実現させることを特徴とする仮想試着プログラムに関する。 (11) According to a third aspect of the present invention, a function of allowing a computer to receive a model head image and body type information of the model from a terminal device, and a plurality of arbitrary clothes and a plurality of arbitrary clothes in the same body part. 2D images corresponding to arbitrary plural clothes are extracted from the image information database in which the clothes state of plural clothes is converted into a two-dimensional image, and the two-dimensional images are superposed based on the clothes order. And a function of generating the superimposed image, a function of converting the superimposed image into a three-dimensional image based on body type information, and a function of transmitting the three-dimensional image and the head image to the terminal device. About virtual fitting program to do.

本発明によると、複数の衣服の2次元画像を重合した重合画像に基づいて3次元画像への変換を行なうため、3次元画像の合成画像を低負荷で生成可能な仮想試着装置、仮想試着方法、および仮想試着プログラムを提供することができる。 According to the present invention, a virtual fitting apparatus and a virtual fitting method capable of generating a composite image of three-dimensional images with a low load because conversion to a three-dimensional image is performed based on a superimposed image obtained by overlapping two-dimensional images of a plurality of clothes. , And a virtual fitting program can be provided.

仮想試着システムによる処理の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of a process by a virtual fitting system. 仮想試着システムの概略構成の一例を示す図である。It is a figure which shows an example of a schematic structure of a virtual fitting system. ユーザの端末装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of a user's terminal device. サーバの概略構成の一例を示す図である。It is a figure which shows an example of a schematic structure of a server. 複数の衣服の詳細情報を記憶する衣服データベースの一例を示す表である。It is a table which shows an example of a clothing database which stores detailed information of a plurality of clothing. 複数のユーザの情報を記憶するユーザデータベースの一例を示す表である。It is a table showing an example of a user database which stores information on a plurality of users. 任意の衣服の距離画像の一例を示す。An example of the distance image of arbitrary clothes is shown. 任意の衣服の法線画像の一例を示す。An example of the normal image of arbitrary clothes is shown. 任意の衣服の色彩画像の一例を示す。An example of the color image of arbitrary clothes is shown. 着衣順序が最内側となる衣服の2次元画像を示す模式図である。It is a schematic diagram which shows the two-dimensional image of the clothes whose clothing order is the innermost side. 最内側の衣服の次の着衣順序を持つ衣服の2次元画像を示す模式図である。It is a schematic diagram which shows the two-dimensional image of the clothing which has the next clothing order of the innermost clothing. インナーおよびアウターの2次元画像を重合した結果を示す模式図である。It is a schematic diagram which shows the result of superposing the two-dimensional image of an inner and an outer. 変換部による2次元画像の重合画像の3次元画像への変換を説明するための図である。It is a figure for demonstrating conversion of the superposition image of a two-dimensional image into a three-dimensional image by a conversion part. 本実施形態にかかる仮想試着システムによるユーザの新規会員登録処理の一連の流れの動作シーケンスの一例を示す図である。It is a figure which shows an example of the operation sequence of a series of flow of a new member registration process of the user by the virtual fitting system concerning this embodiment. 本実施形態にかかる仮想試着システムによる複数の衣服の仮想試着画像の生成処理の一連の流れの動作シーケンスの一例を示す図である。It is a figure which shows an example of the operation sequence of a series of flow of the production|generation process of the virtual fitting image of several clothes by the virtual fitting system concerning this embodiment. 複数の衣服の3次元画像を合成およびその結果を示す模式図である。It is a schematic diagram which synthesize|combines the three-dimensional image of several clothes, and shows the result. 近接ポリゴンに強制的に近づける方法を用いて得られた合成画像を示す模式図である。It is a schematic diagram which shows the synthetic|combination image obtained using the method of making it approach a proximity polygon forcibly. 第2実施形態に係り、着衣順序が最内側となる衣服の2次元画像(衣服の画像)を示す模式図である。FIG. 10 is a schematic diagram showing a two-dimensional image (clothes image) of clothes in which the clothing order is the innermost side according to the second embodiment. 第2実施形態に係り、着衣順序が最内側となる衣服の2次元画像(ベクター・ディスプレイスメント・マップ)を示す模式図である。FIG. 10 is a schematic diagram showing a two-dimensional image (vector displacement map) of clothes in which the clothing order is innermost according to the second embodiment. 第2実施形態に係り、着衣順序が最外側となる衣服の2次元画像(衣服の画像)を示す模式図である。FIG. 13 is a schematic diagram showing a two-dimensional image (clothes image) of clothes whose clothing order is the outermost part according to the second embodiment. 第2実施形態に係り、着衣順序が最外側となる衣服の2次元画像(ベクター・ディスプレイスメント・マップ)を示す模式図である。FIG. 12 is a schematic diagram showing a two-dimensional image (vector displacement map) of clothes whose clothing order is the outermost side according to the second embodiment. 着衣順序が最内側となる衣服に関して、ベクター・ディスプレイスメント・マップに衣服の画像のアルファチャンネルを適用した画像を示す模式図である。It is a schematic diagram which shows the image which applied the alpha channel of the image of clothes to a vector displacement map regarding the clothes whose clothing order is innermost. 着衣順序が最外側となる衣服に関して、ベクター・ディスプレイスメント・マップに衣服の画像のアルファチャンネルを適用した画像を示す模式図である。FIG. 6 is a schematic diagram showing an image in which the alpha channel of the image of the clothes is applied to the vector displacement map for the clothes whose clothing order is the outermost side. 最内側の衣服の画像と最外側の衣服の画像とを重合した画像(衣服の画像同士のアルファ合成)を示す模式図である。It is a schematic diagram which shows the image (alpha synthetic|combination of the images of clothes) which superimposed the image of the clothes of the innermost side and the image of the outermost clothes. 最内側の衣服の画像と最外側の衣服の画像とを重合した画像(ベクター・ディスプレイスメント・マップ同士のアルファ合成)を示す模式図である。It is a schematic diagram which shows the image (alpha composite of vector displacement maps) which superposed the image of the innermost clothes and the image of the outermost clothes.

以下、本開示の一側面に係る仮想試着装置、仮想試着方法、および仮想試着プログラムについて図を参照しつつ説明する。但し、本開示の技術的範囲はそれらの実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Hereinafter, a virtual fitting device, a virtual fitting method, and a virtual fitting program according to one aspect of the present disclosure will be described with reference to the drawings. However, it should be noted that the technical scope of the present disclosure is not limited to those embodiments and extends to the invention described in the claims and equivalents thereof.

[第1実施形態]
(仮想試着システム1による処理の概要)
図1は、仮想試着システム1による処理の一例を説明するための模式図である。
[First Embodiment]
(Outline of processing by virtual fitting system 1)
FIG. 1 is a schematic diagram for explaining an example of processing by the virtual fitting system 1.

仮想試着システム1は、複数のユーザの端末装置2を含み、これらの複数のユーザの端末装置2と相互に通信されるサーバ3を有する。サーバ3は、複数の衣服の情報を記憶する衣服データベース311および複数のユーザの情報を記憶するユーザデータベース312を備えている。なお、本発明において、仮想試着を求める複数のユーザのことをモデルと称する。 The virtual fitting system 1 includes terminal devices 2 of a plurality of users, and a server 3 that communicates with the terminal devices 2 of the plurality of users. The server 3 includes a clothing database 311 that stores information about a plurality of clothes and a user database 312 that stores information about a plurality of users. In the present invention, a plurality of users who seek virtual fitting are called models.

サーバ3は、複数のユーザの端末装置2から衣服データベース311に記憶されている複数の衣服の選択を受け付ける。更にサーバ3は、当該複数の衣服の着衣順序を併せて受け付ける。サーバ3は、複数のユーザの端末装置2から受け付けた情報およびユーザデータベース312に記憶される複数のユーザの情報に基づいて、複数のユーザのそれぞれから選択を受け付けた複数の衣服の試着画像を生成して、複数のユーザの端末装置2に当該試着画像を送信する。本発明は、サーバ3によって複数の衣服の試着画像を生成する技術に特徴を有する。 The server 3 receives the selection of the plurality of clothes stored in the clothes database 311 from the terminal devices 2 of the plurality of users. Further, the server 3 also receives the clothing order of the plurality of clothings. The server 3 generates a try-on image of a plurality of clothes for which selections have been accepted from each of the plurality of users, based on the information received from the terminal devices 2 of the plurality of users and the information of the plurality of users stored in the user database 312. Then, the fitting images are transmitted to the terminal devices 2 of a plurality of users. The present invention is characterized by the technique of generating try-on images of a plurality of clothes by the server 3.

なお、上述した図1の説明は、本発明の内容への理解を深めるための説明にすぎない。本発明は、具体的には、次に説明する各実施の形態において実施され、且つ、本発明の原則を実質的に超えずに、さまざまな変形例によって実施されてもよい。このような変形例はすべて、本発明および本明細書の開示範囲に含まれる。 The above description of FIG. 1 is merely for the purpose of deepening the understanding of the content of the present invention. The present invention is specifically implemented in each of the embodiments described below, and may be implemented by various modifications without substantially exceeding the principle of the present invention. All such modifications are within the scope of the invention and the disclosure herein.

(仮想試着システム1の概略構成)
図2は、仮想試着システム1の概略構成の一例を示す図である。
(Schematic configuration of virtual fitting system 1)
FIG. 2 is a diagram showing an example of a schematic configuration of the virtual fitting system 1.

仮想試着システム1は、複数のユーザの端末装置2、2、2・・・と、サーバ3と、を有する。以下では、複数のユーザの端末装置2を単にユーザの端末装置2と称する場合がある。ユーザの端末装置2、2、2・・・およびサーバ3は、例えば、インターネット4などの通信ネットワークを介してそれぞれ相互に接続される。また、ここではインターネット4が1つ例示されているが、インターネット4が複数のネットワークからなる場合は、それぞれのネットワーク間にゲートウェイ(図示しない)を適宜設けてもよい。サーバ3で実行されるプログラム(例えば、管理プログラム)とは、ハイパーテキスト転送プロトコル(HTTP)などの通信プロトコルを用いて通信を行う。 The virtual fitting system 1 has a plurality of user terminal devices 2, 2, 2,... And a server 3. Below, the terminal device 2 of a some user may only be called the terminal device 2 of a user. The user's terminal devices 2, 2, 2,... And the server 3 are connected to each other via a communication network such as the Internet 4, for example. Further, although one Internet 4 is illustrated here, if the Internet 4 is composed of a plurality of networks, a gateway (not shown) may be appropriately provided between the networks. Communication with a program executed by the server 3 (for example, a management program) is performed using a communication protocol such as a hypertext transfer protocol (HTTP).

(ユーザの端末装置2の概略構成)
図3は、ユーザの端末装置2の概略構成の一例を示す図である。
(Schematic configuration of user's terminal device 2)
FIG. 3 is a diagram illustrating an example of a schematic configuration of the user's terminal device 2.

端末装置2は、無線通信ネットワークへの接続、Webアクセスなどを実行する。そのために、端末装置2は、端末通信部211と、端末記憶部212と、端末操作部213と、端末表示部214と、端末処理部215とを備える。 The terminal device 2 executes connection to a wireless communication network, web access, and the like. Therefore, the terminal device 2 includes a terminal communication unit 211, a terminal storage unit 212, a terminal operation unit 213, a terminal display unit 214, and a terminal processing unit 215.

なお、端末装置2としては、多機能携帯電話(所謂「スマートフォン」)を想定するが、本発明はこれに限定されない。端末装置2は、本発明が適用可能であればよく、例えば、タブレットPCやノートPC、携帯電話(所謂「フィーチャーフォン」)、携帯情報端末(PDA)、携帯ゲーム機、携帯音楽プレイヤ、タブレット端末、などでもよい。 A multi-functional mobile phone (so-called “smartphone”) is assumed as the terminal device 2, but the present invention is not limited to this. The terminal device 2 may be any one to which the present invention can be applied, and examples thereof include a tablet PC, a notebook PC, a mobile phone (so-called “feature phone”), a personal digital assistant (PDA), a portable game machine, a portable music player, and a tablet terminal. , And so on.

端末通信部211は、通信インターフェース回路を備え、端末装置2をインターネット4に接続する。端末通信部211は、ネットワークを介して端末処理部215から供給されたデータをサーバ3などに送信する。また、端末通信部211は、ネットワークを介してサーバ3などから受信したデータを端末処理部215に供給する。 The terminal communication unit 211 includes a communication interface circuit and connects the terminal device 2 to the Internet 4. The terminal communication unit 211 transmits the data supplied from the terminal processing unit 215 to the server 3 or the like via the network. Further, the terminal communication unit 211 supplies the data received from the server 3 or the like via the network to the terminal processing unit 215.

端末記憶部212は、例えば、半導体メモリ装置を備える。端末記憶部212は、端末処理部215での処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データなどを記憶する。例えば、端末記憶部212は、ドライバプログラムとして、端末操作部213を制御する入力デバイスドライバプログラム、端末表示部214を制御する出力デバイスドライバプログラムなどを記憶する。また、端末記憶部212は、アプリケーションプログラムとして、店舗関係者が端末操作部213を操作することによって入力された検索条件、特徴情報および特徴画像などをサーバ3に登録するための登録画面を表示する閲覧プログラムなどを記憶する。各種プログラムは、例えばCD−ROM、DVD−ROMなどのコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラムなどを用いて端末記憶部212にインストールされてもよい。また、端末記憶部212は、所定の処理に係る一時的なデータを一時的に記憶してもよい。 The terminal storage unit 212 includes, for example, a semiconductor memory device. The terminal storage unit 212 stores an operating system program, a driver program, an application program, data, and the like used for the processing in the terminal processing unit 215. For example, the terminal storage unit 212 stores, as the driver programs, an input device driver program that controls the terminal operation unit 213, an output device driver program that controls the terminal display unit 214, and the like. Further, the terminal storage unit 212 displays, as an application program, a registration screen for registering the search conditions, the characteristic information, the characteristic image, and the like input by the store personnel operating the terminal operation unit 213 in the server 3. Memorize browsing programs. Various programs may be installed in the terminal storage unit 212 from a computer-readable portable recording medium such as a CD-ROM or a DVD-ROM using a known setup program or the like. Further, the terminal storage unit 212 may temporarily store temporary data related to a predetermined process.

端末操作部213は、端末装置2の操作が可能であればどのようなデバイスでもよく、例えば、タッチパネルであるが、マウス、またはキーボタンなどを端末装置2の外部に接続してもよい。ユーザは、端末操作部213を用いて、情報の選択や解除、文字や数字などを入力することができる。端末操作部213は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、発生した信号は、端末処理部215に送信される。 The terminal operation unit 213 may be any device as long as it can operate the terminal device 2, and is, for example, a touch panel, but a mouse, a key button, or the like may be connected to the outside of the terminal device 2. The user can use the terminal operation unit 213 to select or cancel information, and input characters or numbers. When operated by the user, the terminal operation unit 213 generates a signal corresponding to the operation. Then, the generated signal is transmitted to the terminal processing unit 215.

端末表示部214も、映像や画像などの表示が可能であればどのようなデバイスでもよく、例えば、液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイなどである。端末表示部214は、端末処理部215から供給された映像データに応じた映像や、画像データに応じた画像などを表示する。 The terminal display unit 214 may be any device as long as it can display images and images, and is, for example, a liquid crystal display or an organic EL (Electro-Luminescence) display. The terminal display unit 214 displays a video according to the video data supplied from the terminal processing unit 215, an image according to the image data, and the like.

端末処理部215は、一または複数個のプロセッサおよびその周辺回路を備える。端末処理部215は、端末装置2の全体的な動作を統括的に制御するものであり、例えば、CPUである。端末処理部215は、端末装置2の各種処理が端末記憶部212に記憶されているプログラムや端末操作部213の操作などに基づいて適切な手順で実行されるように、端末通信部211や端末表示部214などの動作を制御する。端末処理部215は、端末記憶部212に記憶されているプログラム(オペレーティングシステムプログラムやドライバプログラム、アプリケーションプログラムなど)に基づいて処理を実行する。また、端末処理部215は、複数のプログラム(アプリケーションプログラムなど)を並列に実行することができる。 The terminal processing unit 215 includes one or more processors and their peripheral circuits. The terminal processing unit 215 comprehensively controls the overall operation of the terminal device 2, and is, for example, a CPU. The terminal processing unit 215 and the terminal communication unit 211 and the terminal communication unit 211 execute the various processes of the terminal device 2 in an appropriate procedure based on a program stored in the terminal storage unit 212 and an operation of the terminal operation unit 213. The operation of the display unit 214 and the like is controlled. The terminal processing unit 215 executes processing based on a program (operating system program, driver program, application program, etc.) stored in the terminal storage unit 212. Further, the terminal processing unit 215 can execute a plurality of programs (application programs and the like) in parallel.

端末処理部215は、端末装置2の外部から受信した画面表示情報をユーザに閲覧可能な画面表示として処理をする機能や、ユーザからの端末操作部213の操作内容に基づく処理を端末装置2の外部に送信可能な信号に変換して端末通信部211に送る機能を備える。これらの機能は、端末処理部215が備えるプロセッサで実行されるプログラムにより実現される機能モジュールである。あるいは、これらの各部は、独立した集積回路、マイクロプロセッサ、またはファームウェアとして端末装置2に実装されてもよい。 The terminal processing unit 215 has a function of processing the screen display information received from the outside of the terminal device 2 as a screen display that can be viewed by the user, and a process based on the operation content of the terminal operation unit 213 from the user of the terminal device 2. It has a function of converting to a signal that can be transmitted to the outside and sending it to the terminal communication unit 211. These functions are functional modules realized by a program executed by a processor included in the terminal processing unit 215. Alternatively, each of these units may be implemented in the terminal device 2 as an independent integrated circuit, a microprocessor, or firmware.

(サーバ3の概略構成)
図4は、サーバ3の概略構成の一例を示す図である。
(Schematic configuration of server 3)
FIG. 4 is a diagram showing an example of a schematic configuration of the server 3.

サーバ3は、複数の衣服の情報を記憶する衣服データベース311および複数のユーザの情報を記憶するユーザデータベース312を含むサーバ記憶部313を備える。サーバ3は、複数のユーザの端末装置2からの検索条件に応じて衣服データベース311から所望の衣服の検索結果をユーザの端末装置2に送信する。また、サーバ3は、複数のユーザの端末装置2から選択された複数の衣服の試着画像の生成要求を受信すると、ユーザデータベース312に記憶されているユーザの体型情報および衣服データベース311に記憶される2次元画像を基に選択された複数の衣服の仮想試着画像としての3次元画像を複数のユーザの端末装置2に送信する。以上のような機能を実現するために、サーバ3は、サーバ記憶部313の他に、受付部314、生成部315、および変換部316を含むサーバ処理部317およびサーバ通信部318を更に備える。 The server 3 includes a server storage unit 313 that includes a clothing database 311 that stores information about a plurality of clothes and a user database 312 that stores information about a plurality of users. The server 3 transmits the search result of desired clothes from the clothes database 311 to the user terminal device 2 according to the search conditions from the terminal devices 2 of the plurality of users. Further, when the server 3 receives a request to generate a try-on image of a plurality of selected clothes from the terminal devices 2 of a plurality of users, the server 3 stores the user's body shape information stored in the user database 312 and the clothes database 311. A three-dimensional image as a virtual fitting image of a plurality of clothes selected based on the two-dimensional image is transmitted to the terminal devices 2 of a plurality of users. In order to realize the above functions, the server 3 further includes a server processing unit 317 including a reception unit 314, a generation unit 315, and a conversion unit 316, and a server communication unit 318, in addition to the server storage unit 313.

衣服データベース311は、複数の衣服識別情報に対応付けて、衣服の販売元情報、メーカー情報、製造サイズ情報、衣服カテゴリ情報、販売価格情報、販売可能時期情報、などを記憶している。更に衣服データベース311は、複数の衣服識別情報ごとに該当する衣服の2次元画像を記憶している。 The clothing database 311 stores clothing vendor information, manufacturer information, manufacturing size information, clothing category information, selling price information, salable time information, and the like in association with a plurality of clothing identification information. Further, the clothing database 311 stores a two-dimensional image of the corresponding clothing for each piece of clothing identification information.

ユーザデータベース312は、複数のユーザのユーザ識別情報(ユーザID)に対応付けて、ユーザのメールアドレス、ユーザの性別、ユーザの年代、などが記憶されている。更にユーザデータベース312は、ユーザの体型情報を記憶している。 The user database 312 stores the user's email address, the user's gender, the user's age, etc. in association with the user identification information (user ID) of the plurality of users. Further, the user database 312 stores the body type information of the user.

サーバ記憶部313は、例えば、半導体メモリ、磁気ディスク装置および光ディスク装置の内の少なくとも一つを有し、バスを介してサーバ3と接続される。サーバ記憶部313は、サーバ処理部317による処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データなどを記憶する。例えば、サーバ記憶部313は、ドライバプログラムとして、サーバ通信部318を制御する通信デバイスドライバプログラムなどを記憶する。コンピュータプログラムは、例えばCD−ROM、DVD−ROMなどのコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラムなどを用いてサーバ記憶部313にインストールされてもよい。また、サーバ記憶部313は、衣服データベース311およびユーザデータベース312などを記憶する。 The server storage unit 313 has, for example, at least one of a semiconductor memory, a magnetic disk device, and an optical disk device, and is connected to the server 3 via a bus. The server storage unit 313 stores a driver program, an operating system program, an application program, data and the like used for the processing by the server processing unit 317. For example, the server storage unit 313 stores, as the driver program, a communication device driver program that controls the server communication unit 318. The computer program may be installed in the server storage unit 313 from a computer-readable portable recording medium such as a CD-ROM or a DVD-ROM using a known setup program or the like. The server storage unit 313 also stores a clothing database 311 and a user database 312.

また、サーバ記憶部313は、複数のユーザの端末装置2から選択を受け付けた衣服の衣服識別情報やユーザ識別情報、および2次元画像を重合した重合画像や当該重合画像を3次元画像(仮想試着画像)に変換した画像などを一時的に記憶する一時記憶部としても機能する。 In addition, the server storage unit 313 stores the clothes identification information and the user identification information of the clothes that have been selected from the terminal devices 2 of the plurality of users, the superimposed image obtained by superimposing the two-dimensional images, and the three-dimensional image (virtual fitting) on the superposed image. It also functions as a temporary storage unit that temporarily stores images converted into images).

なお、サーバ記憶部313は、一つの記憶領域からなってもよく、複数の記憶領域からなってもよい。更に、サーバ記憶部313は、サーバ3の内部に存在しない場合があってもよい。例えば、クラウドサーバなどがその一例である。 The server storage unit 313 may be composed of one storage area or may be composed of a plurality of storage areas. Furthermore, the server storage unit 313 may not exist inside the server 3. For example, a cloud server or the like is one example.

サーバ処理部317は、受付部314、生成部315、および変換部316を含む。サーバ処理部317による機能は、サーバ処理部317が備えるプロセッサで実行されるプログラムにより実現される機能モジュールである。あるいは、これらの各部は、独立した集積回路、マイクロプロセッサ、またはファームウェアとしてサーバ3に実装されてもよい。なお、サーバ処理部317の処理内容は後述する。また、サーバ処理部317の構成要素の切り分けは、一例であって、どの構成要素がどの処理を行うかは、本実施形態の記載に限定されない。 The server processing unit 317 includes a reception unit 314, a generation unit 315, and a conversion unit 316. The function of the server processing unit 317 is a functional module implemented by a program executed by a processor included in the server processing unit 317. Alternatively, each of these units may be implemented in the server 3 as an independent integrated circuit, a microprocessor, or firmware. The processing contents of the server processing unit 317 will be described later. Further, the division of the constituent elements of the server processing unit 317 is an example, and which constituent element performs which processing is not limited to the description of the present embodiment.

受付部314は、後述するサーバ通信部318を介して複数のユーザの端末装置2から受信した様々な情報を一括に受け付ける。具体的に受付部314は、ユーザからの新規のユーザ登録を受け付ける。この際、サーバ3は、ユーザデータベース312に記憶されている情報を事前にユーザに登録するようユーザに促すとよい。例えば、受付部314は、ユーザの頭部画像やユーザの体型情報を受け付ける。なお、頭部画像は、ユーザの端末装置2によって3Dスキャンされた3次元画像であってもよく、ユーザの端末装置2によって撮像された2次元画像であってもよい。更に、ユーザは、ユーザ自身の頭部画像の代わりに任意の頭部画像をユーザデータベース312に記憶する構成としてもよい。なお、この画像はアニメーションなどであってもよい。そして、ユーザ登録後に受付部314は、複数のユーザの端末装置2から衣服データベース311に記憶されている複数の衣服の検索条件を受け付けたり、仮想試着のために衣服データベース311に記憶されている複数の衣服から任意の衣服の選択入力および当該衣服の着衣順序を受け付けたりする。更に、受付部314は、仮想試着を可視化した試着画像を生成するための要求を受け付ける。本発明において、受付部314は、モデル情報受付部および衣服情報受付部に相当することができる。なお、サーバ記憶部313は、受付部314が受け付けた各種情報を衣服データベース311、ユーザデータベース312、および一時保存領域に記憶する。どの情報をそれぞれのデータベースや記憶領域が記憶するかは、本発明において任意であり、特に本発明を限定する事項ではない。 The reception unit 314 collectively receives various information received from the terminal devices 2 of a plurality of users via the server communication unit 318 described below. Specifically, the reception unit 314 receives a new user registration from the user. At this time, the server 3 may prompt the user to register the information stored in the user database 312 with the user in advance. For example, the reception unit 314 receives the head image of the user and the body type information of the user. The head image may be a three-dimensional image that is 3D-scanned by the user terminal device 2 or a two-dimensional image that is captured by the user terminal device 2. Further, the user may store an arbitrary head image in the user database 312 instead of the user's own head image. The image may be an animation or the like. After the user registration, the accepting unit 314 accepts the search conditions of the plurality of clothes stored in the clothes database 311 from the terminal devices 2 of the plurality of users, and stores the plurality of clothes stored in the clothes database 311 for virtual fitting. Selective input of arbitrary clothes from the clothes and the order of wearing the clothes. Further, the reception unit 314 receives a request for generating a fitting image in which virtual fitting is visualized. In the present invention, the reception unit 314 can correspond to the model information reception unit and the clothes information reception unit. The server storage unit 313 stores the various information received by the reception unit 314 in the clothing database 311, the user database 312, and the temporary storage area. Which information is stored in each database or storage area is arbitrary in the present invention and is not particularly a limitation on the present invention.

まず、生成部315は、複数のユーザの端末装置2から受け付けた衣服データベース311から任意の衣服を選択するための検索条件に基づいて衣服情報を抽出する。生成部315は、複数のユーザの端末装置2から選択入力された複数の衣服に対応する2次元画像を衣服データベース311から抽出して、併せて複数のユーザの端末装置2から受け付けた着衣順序に基づいて2次元画像を重合した重合画像を生成する。生成部315の生成処理については、詳細を後述する。なお、生成部315は、本発明における生成処理部に相当することができる。なお、生成部315は、複数の部位の衣服同士の着衣順序を考慮することとしてもよい。すなわち、トップスをボトムスの中に入れた着衣方法とするかトップスがボトムスの外に出た着衣方法とするかをユーザが選択できるようになる。この場合、受付部314が、同一部位における衣服の着衣順序の他に、異なる部位においける衣服同士の着衣順序を受け付けてもよい。 First, the generation unit 315 extracts clothing information based on a search condition for selecting an arbitrary clothing from the clothing database 311 received from the terminal devices 2 of a plurality of users. The generation unit 315 extracts from the clothing database 311 a two-dimensional image corresponding to a plurality of clothes selected and input from the terminal devices 2 of a plurality of users, and puts it in the order of wearing received from the terminal devices 2 of a plurality of users. A two-dimensional image is superposed on the basis to generate a superposed image. The details of the generation process of the generation unit 315 will be described later. The generation unit 315 can correspond to the generation processing unit in the present invention. Note that the generation unit 315 may consider the clothing order of clothes of a plurality of parts. That is, the user can select whether to wear the tops in the bottoms or to put the tops out of the bottoms. In this case, the accepting unit 314 may accept the order of wearing clothes in different parts in addition to the order of wearing clothes in the same part.

変換部316は、受付部314が受け付けたユーザの体型情報を基に共通の中間ポリゴンモデルを補正して頭部画像を合成することでユーザの仮想人体モデルを生成し、当該仮想人体モデルに、生成部315が生成した重合画像を更に重合することで重合画像を3次元画像(すなわち仮想試着画像)に変換する。ここで、ユーザの頭部画像が3次元画像である場合、変換部316は、頭部画像を合成することで実際にユーザが衣服を試着してるような仮想試着画像を生成することができる。一方、ユーザの頭部画像が2次元画像である場合、変換部316は、衣服の2次元画像と共にユーザの頭部の2次元画像を3次元画像に変換する必要がある。すなわち、サーバ3は、2次元画像の段階で生成部315が複数の衣服の画像を重合し、重合画像を3次元画像に変換するため、複数の衣服画像の重ね着結果である3次元画像を生成することができる。なお、変換部316は、本発明における変換処理部に相当することができる。 The conversion unit 316 corrects the common intermediate polygon model based on the body shape information of the user received by the reception unit 314 and synthesizes the head image to generate the virtual human body model of the user, and the virtual human body model is converted into the virtual human body model. The superimposed image generated by the generation unit 315 is further superimposed to convert the superimposed image into a three-dimensional image (that is, a virtual fitting image). Here, when the user's head image is a three-dimensional image, the conversion unit 316 can generate a virtual fitting image in which the user is actually trying on clothes by combining the head images. On the other hand, when the user's head image is a two-dimensional image, the conversion unit 316 needs to convert the two-dimensional image of the user's head together with the two-dimensional image of the clothes into a three-dimensional image. That is, in the server 3, the generation unit 315 superimposes a plurality of clothes images at the stage of the two-dimensional image and converts the superposed image into a three-dimensional image. Can be generated. The conversion unit 316 can correspond to the conversion processing unit in the present invention.

サーバ通信部318は、サーバ3をインターネット4に接続するための通信インターフェース回路を有する。サーバ通信部318は、複数のユーザの端末装置2から検索要求や試着画像の生成要求を受付部314に送信する。また、サーバ通信部318は、生成部315が衣服データベース311から抽出した衣服画像を複数のユーザの端末装置2に送信したり生成部315および変換部316が生成した3次元画像を複数のユーザの端末装置2に送信したりする。なお、サーバ通信部318は、本発明における送信部に相当することができる。 The server communication unit 318 has a communication interface circuit for connecting the server 3 to the Internet 4. The server communication unit 318 transmits a search request or a fitting image generation request from the terminal devices 2 of a plurality of users to the reception unit 314. In addition, the server communication unit 318 transmits the clothing images extracted by the generation unit 315 from the clothing database 311 to the terminal devices 2 of the plurality of users, and the three-dimensional images generated by the generation unit 315 and the conversion unit 316 of the plurality of users. It is transmitted to the terminal device 2. The server communication unit 318 can correspond to the transmission unit in the present invention.

(テーブルのデータ構造)
図5および6は、衣服データベース311およびユーザデータベース312の構造の一例を示す図である。
(Table data structure)
5 and 6 are diagrams showing examples of the structures of the clothing database 311 and the user database 312.

図5は、複数の衣服の詳細情報を記憶する衣服データベース311の一例を示す表である。衣服データベース311は、複数の衣服識別情報(衣服ID)に対応付けて、衣服のメーカー情報、サイズ情報、衣服カテゴリ情報、販売価格情報、販売可能時期情報、などを記憶している。更に衣服データベース311は、複数の衣服識別情報ごとに該当する衣服の2次元画像を記憶している。この衣服の2次元画像は、後述する通り、距離画像、法線画像、および色彩画像を含んでいる。なお、図5に示す衣服データベース311においては、2次元画像を呼び出すためのパスのみが記憶されている。衣服の2次元画像は、衣服のパターンから作成されてもよく、完成した衣服の3Dスキャンなどに基づいて作成されてもよい。本実施形態において2次元画像は、3Dスキャンされた画像を多種の画像またはマップとして衣服データベース311に記憶されている。なお、3Dスキャンされた画像を記憶する衣服データベース311は、本発明における画像情報データベースに相当することができる。 FIG. 5 is a table showing an example of a clothing database 311 that stores detailed information of a plurality of clothing. The clothing database 311 stores, in association with a plurality of pieces of clothing identification information (clothing ID), clothing manufacturer information, size information, clothing category information, selling price information, salable period information, and the like. Further, the clothing database 311 stores a two-dimensional image of the corresponding clothing for each piece of clothing identification information. The two-dimensional image of this clothes includes a distance image, a normal image, and a color image, as described later. In the clothing database 311 shown in FIG. 5, only the path for calling the two-dimensional image is stored. The two-dimensional image of the clothes may be created from the pattern of the clothes, or may be created based on a 3D scan of the completed clothes or the like. In the present embodiment, the two-dimensional image is stored in the clothing database 311 by using the 3D-scanned image as various images or maps. The clothing database 311 that stores the 3D-scanned image can correspond to the image information database in the present invention.

図5の通り、同一の衣服についてサイズ違いは、衣服識別番号として枝番号を付与することで衣服データベース311が管理する。これによって、ユーザは、同一デザインの衣服についてサイズ違いの商品を検索し易くなる。また、メーカー、カテゴリ、および色は、ユーザの検索の利便性のために入力されている情報である。販売価格および、販売可能時期としての販売開始時期および販売終了時期は、仮想試着システム1が、衣服の販売を併せて行なう場合に必要な情報となる。 As shown in FIG. 5, different sizes of the same clothes are managed by the clothes database 311 by assigning branch numbers as clothes identification numbers. This makes it easier for the user to search for products of different sizes for clothes of the same design. Further, the manufacturer, category, and color are information entered for the convenience of the user's search. The sale price and the sale start time and the sale end time as the sale possible time are necessary information when the virtual fitting system 1 also sells clothes.

図7は、任意の衣服の距離画像の一例を示す。なお、距離画像は、仮想試着システム1が事前に準備してもよく、仮想試着システム1の外部で作成されてもよい。距離画像は、任意の中間ポリゴンモデルを用意し、当該中間ポリゴンモデルと当該任意の衣服のポリゴンモデルとの差異を取得することで各ピクセルにおける距離(ディスプレイスメント)を求めている。距離画像は、この各ピクセルにおける距離を2次元画像化(ベイク)することで得られる。なお、中間ポリゴンモデルには、UVマップ(ポリゴンモデルを平面に展開する割当情報)が設定してある。 FIG. 7 shows an example of a distance image of arbitrary clothes. The distance image may be prepared in advance by the virtual fitting system 1 or may be created outside the virtual fitting system 1. For the distance image, an arbitrary intermediate polygon model is prepared, and the distance (displacement) at each pixel is obtained by acquiring the difference between the intermediate polygon model and the polygon model of the arbitrary clothing. The distance image is obtained by two-dimensionally imaging (baking) the distance at each pixel. A UV map (assignment information for expanding the polygon model on a plane) is set in the intermediate polygon model.

図8は、任意の衣服の法線画像の一例を示す。なお、法線画像は、仮想試着システム1が事前に準備してもよく、仮想試着システム1の外部で作成されてもよい。法線画像は、当該任意の衣服のポリゴンモデルの各面の方向(法線)を示す画像である。法線画像は、この各ピクセルにおける法線方向を2次元画像化(ベイク)することで得られる。法線画像は、画像同様に共通の中間ポリゴンモデルと衣服のポリゴンモデルとを重ねることで衣服のポリゴンモデルの各面の方向を得る構成としてもよい。 FIG. 8 shows an example of a normal image of arbitrary clothes. The normal image may be prepared in advance by the virtual fitting system 1 or may be created outside the virtual fitting system 1. The normal image is an image showing the direction (normal) of each surface of the polygon model of the arbitrary clothing. The normal image is obtained by two-dimensionally imaging (baking) the normal direction of each pixel. Like the image, the normal line image may have a configuration in which the common intermediate polygon model and the clothes polygon model are overlapped to obtain the direction of each surface of the clothes polygon model.

図9は、任意の衣服の色彩画像の一例を示す。なお、色彩画像は、仮想試着システム1が事前に準備してもよく、仮想試着システム1の外部で作成されてもよい。色彩画像は、当該任意の衣服を2次元画像化(ベイク)した際に各ピクセルにおける色彩を得ることで得られる。 FIG. 9 shows an example of a color image of arbitrary clothes. The color image may be prepared in advance by the virtual fitting system 1 or may be created outside the virtual fitting system 1. The color image is obtained by obtaining the color at each pixel when the arbitrary clothing is two-dimensionally imaged (baked).

これらの距離画像、法線画像、および色彩画像を合わせて任意の衣服の2次元画像と呼ぶ。複数の異なる衣服に共通の中間ポリゴンモデルを用いることで、共通の基準を持った衣服の2次元画像を衣服データベース311が記憶することができる。すなわち、生成部315は、共通の中間ポリゴンモデルを用いた複数の衣服の2次元画像の重合を行なうため、容易に変換部316が3次元画像を当該重合画像から変換することができる。なお、衣服は通常複数のサイズが製造されているが、本発明では、共通の中間ポリゴンモデルを複数のサイズにおいても共通で使用して2次元画像を得ることが好ましい。すなわち、ユーザが異なるサイズの衣服を複数試着した際の仮想試着画像を得たい場合、異なる中間ポリゴンモデルを基に得た2次元画像を重合することになる。その場合、複数の2次元画像の距離画像がそれぞれ異なる基準点を有してしまうため、複数の衣服の距離が反転(入れ替わる)してしまう可能性がある。 The distance image, the normal image, and the color image are collectively referred to as a two-dimensional image of arbitrary clothes. By using a common intermediate polygon model for a plurality of different clothes, the clothes database 311 can store a two-dimensional image of clothes having a common reference. That is, since the generation unit 315 superimposes the two-dimensional images of a plurality of clothes using the common intermediate polygon model, the conversion unit 316 can easily convert the three-dimensional image from the superposed image. Although clothes of a plurality of sizes are usually manufactured, it is preferable in the present invention to obtain a two-dimensional image by commonly using a common intermediate polygon model for a plurality of sizes. That is, when the user wants to obtain a virtual fitting image when trying on a plurality of clothes of different sizes, the two-dimensional images obtained based on different intermediate polygon models are superimposed. In that case, since the distance images of the plurality of two-dimensional images have different reference points, the distances of the plurality of clothes may be reversed (replaced).

図6は、複数のユーザの情報を記憶するユーザデータベース312の一例を示す表である。ユーザデータベース312は、複数のユーザのユーザ識別情報(ユーザID)に対応付けて、ユーザのメールアドレス、ユーザの性別、ユーザの年代、などが記憶されている。更にユーザデータベース312は、ユーザの体型情報を記憶している。ユーザの体型情報は、ユーザによって入力されるものであり、身長や体重などの情報である。ユーザの情報は、ユーザにより適宜修正することもでき、ユーザが入力を拒否する項目については、データを記憶しない項目もあってもよい。正確な仮想試着画像を得るために、身長および体重については、必須とすることが好ましい。 FIG. 6 is a table showing an example of the user database 312 that stores information on a plurality of users. The user database 312 stores the user's email address, the user's gender, the user's age, etc. in association with the user identification information (user ID) of the plurality of users. Further, the user database 312 stores the body type information of the user. The body type information of the user is input by the user, and is information such as height and weight. The information of the user can be appropriately modified by the user, and the items the user refuses to input may include items for which no data is stored. In order to obtain an accurate virtual fitting image, it is preferable that the height and the weight are essential.

また、ユーザデータベース312は、複数のユーザの体型情報を基に衣服同様に距離画像および法線画像として2次元画像化した2次元画像を更に記憶している。なお、ここで体型情報は、身長および体重といった簡易な情報のみを含むこととしてもよいが、胸囲、腕長、太もも周囲長、などの詳細な体型情報を含んでもよい。 In addition, the user database 312 further stores a two-dimensional image that has been two-dimensionally imaged as a distance image and a normal line image based on the body type information of a plurality of users like clothing. Here, the body type information may include only simple information such as height and weight, but may also include detailed body type information such as chest circumference, arm length, and thigh circumference.

(生成部315による2次元画像の重合処理)
図10〜12は、任意の複数の衣服の重合処理を説明するための図である。図10は、着衣順序が最内側となる衣服の2次元画像を示す模式図である。最内側の衣服とは、インナーである。また、図11が最内側の衣服の次の着衣順序を持つ衣服の2次元画像を示す模式図である。ここでは、アウターと呼ぶ。そして、図12が、インナー(図10)およびアウター(図12)の2次元画像を重合した結果を示す模式図である。
(Overlapping process of two-dimensional image by generation unit 315)
10 to 12 are views for explaining a polymerization process of arbitrary plural clothes. FIG. 10 is a schematic diagram showing a two-dimensional image of clothes in which the order of wearing is innermost. The innermost garment is the inner. Further, FIG. 11 is a schematic diagram showing a two-dimensional image of clothes having the next clothing order of the innermost clothes. Here, it is called an outer. Then, FIG. 12 is a schematic diagram showing a result of superposing two-dimensional images of the inner (FIG. 10) and the outer (FIG. 12 ).

生成部315は、ユーザによって選択された複数の衣服の着衣順序に基づいて最内側の衣服の2次元画像を衣服データベース311から抽出して、次に着衣順序の衣服の2次元画像を衣服データベース311から抽出して重合する。すなわち、生成部315は、同一ピクセル(位置)におけるそれぞれの距離画像に含まれる距離の値を法線画像に含まれる当該ピクセルの方向に加算する。距離の累積値が、そのピクセルにおける最外側の衣服の位置となる。この累積値をそれぞれのピクセルにおいて、距離方向を持たせることで、各ピクセルのベクトルが定まる。なお、距離画像の重合は、法線画像以外に、色彩画像の透過値をファクターとして使用することで、より正確な重合画像を得ることができる。そして、生成部315は、各ピクセルにおいて最外側の衣服の色彩を当該ピクセルにおける色彩として決定する。 The generation unit 315 extracts a two-dimensional image of the innermost clothes from the clothes database 311 based on the wearing order of the plurality of clothes selected by the user, and then extracts a two-dimensional image of the clothes in the wearing order from the clothes database 311. Extract from and polymerize. That is, the generation unit 315 adds the value of the distance included in each distance image at the same pixel (position) to the direction of the pixel included in the normal image. The cumulative value of the distance is the position of the outermost garment at that pixel. By giving the cumulative value to each pixel in the distance direction, the vector of each pixel is determined. In addition to the normal image, the superposition of the distance image can obtain a more accurate superposed image by using the transmission value of the color image as a factor. Then, the generation unit 315 determines the color of the outermost clothes of each pixel as the color of the pixel.

すなわち、生成部315は、複数の衣服を共通の中間ポリゴンモデルを用いて生成した2次元画像を重合することで複数の衣服の重ね着を2次元画像として表現した重合画像を生成することができる。生成部315は、共通の中間ポリゴンモデルを用いて画像処理を行なうことで、衣服の種類やサイズを問わず様々な衣服も同一の座標に対応する情報が乗っていることを保証することができる。 That is, the generation unit 315 can generate a superimposed image in which layering of a plurality of clothes is expressed as a two-dimensional image by overlapping a two-dimensional image generated by using a common intermediate polygon model for a plurality of clothes. .. By performing image processing using the common intermediate polygon model, the generation unit 315 can guarantee that various clothes have information corresponding to the same coordinates regardless of the type and size of clothes. ..

(変換部316による3次元画像への変換処理)
図13は、変換部316による2次元画像の重合画像の3次元画像への変換を説明するための図である。変換部316は、生成部315が生成した重合画像を共通の中間ポリゴンモデルに割り当てることで、3次元画像に変換する。更に、変換部316は、複数のユーザの端末装置2から受け付けたユーザの頭部画像を合成することでユーザが複数の衣服を試着してる状態を可視するための仮想試着画像を生成することができる。なお、図13では、ユーザの頭部画像の合成を割愛している。
(Conversion processing into a three-dimensional image by the conversion unit 316)
FIG. 13 is a diagram for explaining the conversion of the superimposed image of the two-dimensional image into the three-dimensional image by the conversion unit 316. The conversion unit 316 converts the superimposed image generated by the generation unit 315 into a three-dimensional image by assigning it to a common intermediate polygon model. Further, the conversion unit 316 may generate a virtual fitting image for visualizing a state in which the user is trying on a plurality of clothes by combining the head images of the users received from the terminal devices 2 of the plurality of users. it can. Note that the composition of the user's head image is omitted in FIG.

複数の衣服の2次元画像を得るために使用した共通の中間ポリゴンモデルは、標準的な体型を基準としていることから、個々のユーザの体型に、より近い試着状態の試着画像を得るために、変換部316は、共通の中間ポリゴンモデルの法線方向の距離の値をユーザデータベース312に含まれるユーザの体型情報を基に補正する。具体的に変換部316は、ユーザの体重が任意の身長において標準的な体型よりも小さい場合は、法線方向の距離を標準体重との差異に基づいて減算する。個々のピクセルの減算度合いは、予め身長(身長のレンジ)ごとに予め定められており、体重の差異によって体型に影響が出やすい身体の部位を実験的または統計的にマップのような情報でサーバ記憶部313が予め記憶している。ユーザの体重が任意の身長において標準的な体型よりも大きい場合の変換部316の処理は、標準的な体型よりも小さい場合の処理の逆となるため、詳細な説明は割愛する。 Since the common intermediate polygon model used to obtain the two-dimensional images of a plurality of clothes is based on the standard body shape, in order to obtain a fitting image in a fitting state closer to the body shape of each user, The conversion unit 316 corrects the value of the distance in the normal direction of the common intermediate polygon model based on the body type information of the user included in the user database 312. Specifically, the conversion unit 316 subtracts the distance in the normal direction based on the difference from the standard weight when the weight of the user is smaller than the standard body type at any height. The degree of subtraction of each pixel is predetermined for each height (height range), and the body parts that are likely to affect the body shape due to the difference in weight are experimentally or statistically stored in a server using information such as a map. The storage unit 313 stores it in advance. The processing of the conversion unit 316 when the weight of the user is larger than the standard body shape at any height is the reverse of the processing when the body weight is smaller than the standard body shape, and thus detailed description will be omitted.

ユーザによって、詳細な体型情報が入力されている場合も、任意のポリゴンモデルを基準に標準より小さいか大きいかを考慮して法線方向の距離の値を補正すればよい。なお、複数の衣服の2次元画像を得るために使用した共通の中間ポリゴンモデルは、男性または女性における標準的な身長を基準としているため、ユーザの身長と標準的な身長との差異に応じて衣服の丈(衣服の最下位部の位置)が変化する。 Even when the detailed body type information is input by the user, the value of the distance in the normal direction may be corrected in consideration of whether the polygon model is smaller or larger than the standard on the basis of an arbitrary polygon model. Note that the common intermediate polygon model used to obtain the two-dimensional images of a plurality of clothes is based on the standard height of a male or a female, and therefore, depending on the difference between the user's height and the standard height. The length of the clothes (the position of the bottom of the clothes) changes.

(新規会員登録処理)
図14は、本実施形態にかかる仮想試着システム1によるユーザの新規会員登録処理の一連の流れの動作シーケンスの一例を示す図である。すなわち、ユーザが新規に個人情報を登録して、仮想試着システム1を使用する際の処理となる。
(New member registration process)
FIG. 14 is a diagram showing an example of an operation sequence of a series of user new member registration processing by the virtual fitting system 1 according to the present embodiment. That is, the process is performed when the user newly registers the personal information and uses the virtual fitting system 1.

以下に説明する動作シーケンスは、予めサーバ記憶部313に記憶されているプログラムに基づいて、主にサーバ処理部317により、サーバ3の各要素と協働して実行される。更に、以下に説明する動作シーケンスは、予めユーザの端末装置2の端末記憶部212に記憶されているプログラムに基づいて、主にユーザの端末装置2の端末処理部215により、端末装置2の各要素と協働して実行される。また、以下に説明する動作シーケンスにおいて、サーバ3は、サーバ通信部318を介して端末装置2と各種の情報を送受信する。 The operation sequence described below is executed mainly by the server processing unit 317 in cooperation with each element of the server 3 based on a program stored in the server storage unit 313 in advance. Furthermore, the operation sequence described below is based on a program stored in the terminal storage unit 212 of the terminal device 2 of the user in advance, mainly by the terminal processing unit 215 of the terminal device 2 of the user, and Performed in cooperation with the element. In the operation sequence described below, the server 3 transmits/receives various information to/from the terminal device 2 via the server communication unit 318.

本処理は、ユーザが新規ログインユーザとなるために「新規会員登録ボタン」などを押下した場合に行なわれる。まず、サーバ3は、ユーザのメールアドレスの入力がされたか否かを判断する(ステップS101)。このステップにおいて、確認用に重複してメールアドレスをユーザに入力させるようにしてもよい。サーバは、ユーザのメールアドレスの入力が確認できない場合(ステップS101がNO)、ステップS101を繰り返す。 This process is performed when the user presses a "new member registration button" or the like to become a new login user. First, the server 3 determines whether or not the mail address of the user has been input (step S101). In this step, the user may be allowed to enter the email address in duplicate for confirmation. When the server cannot confirm the input of the user's email address (NO in step S101), step S101 is repeated.

一方、ユーザのメールアドレスの入力が確認できた場合(ステップS101がYES)、サーバ3は、入力されたユーザのメールアドレスが既に登録済みのアドレスであるか否かを判断する(ステップS102)。入力されたユーザのメールアドレスが既に登録済みである場合(ステップS102がYES)、処理はステップS101に戻され、サーバ3は、別のメールアドレスの入力をユーザに促す。 On the other hand, if the input of the user's email address is confirmed (YES in step S101), the server 3 determines whether the input user's email address is an already registered address (step S102). If the input user's email address is already registered (YES in step S102), the process returns to step S101, and the server 3 prompts the user to input another email address.

入力されたユーザのメールアドレスが既に登録済みではない場合(ステップS102がNO)、サーバ3は、ユーザの個人情報の入力を待つ(ステップS103)。ここで個人情報とは、ユーザの氏名、電話番号、性別、身長、体重、などをいう。これらの情報は、仮想試着システム1の提供者が自由に設定することができる。また、仮想試着システム1が衣服の販売も行なう場合、個人情報としてクレジットカードなどの決済情報を個人情報として受け付けることが好ましい。サーバは、ユーザのメールアドレスの入力が確認できない場合(ステップS103がNO)、ステップS103を繰り返す。 When the input user's mail address is not already registered (NO in step S102), the server 3 waits for input of the user's personal information (step S103). Here, the personal information refers to a user's name, telephone number, sex, height, weight, and the like. These pieces of information can be freely set by the provider of the virtual fitting system 1. When the virtual fitting system 1 also sells clothes, it is preferable to accept payment information such as a credit card as personal information as the personal information. When the server cannot confirm the input of the user's email address (NO in step S103), step S103 is repeated.

一方、ユーザの個人情報の入力が確認できた場合(ステップS103がYES)、サーバ3は、入力されたユーザの個人情報が全項目入力済みか否かを判断する(ステップS104)。ユーザの個人情報の入力に不備(欠損)がある場合(ステップS104がNO)、処理はステップS103に戻され、サーバ3は、未入力の項目をハイライトするなどの補助を個人情報入力画面に施して、ユーザに未入力の項目の入力を促す。なお、ここのステップS104でサーバ3は、ユーザの体型情報として身長と体重の入力をユーザに求めるが、次のステップS105に含めることとしてもよい。その場合、ステップS105についても入力必須項目とすることが好ましい。 On the other hand, when the input of the user's personal information can be confirmed (YES in step S103), the server 3 determines whether all the items of the user's personal information input have been input (step S104). If the input of the user's personal information is inadequate (missing) (NO in step S104), the process returns to step S103, and the server 3 displays on the personal information input screen assistance such as highlighting an uninput item. By doing so, the user is prompted to input an item that has not been input. Although the server 3 requests the user to input the height and weight as the user's body type information in step S104, the server 3 may include the height and weight in the next step S105. In that case, it is preferable that the step S105 is also an input required item.

ユーザの個人情報が全項目入力済である場合(ステップS104がYES)、サーバ3は、ユーザの詳細な体型情報の入力を促す(ステップS105)。詳細な体型情報とは、身長および体重以外の詳細な体型に関する数値情報である。具体的には、胸囲、腕長、太もも周囲長、などを含むが、これらの項目は本発明を特に限定するものではない。更に、詳細な体型情報にはユーザの頭部画像が含まれてもよい。これらの詳細な体型情報の入力は任意であり、未入力であっても新規会員登録は可能である。 When all items of the user's personal information have been input (YES in step S104), the server 3 prompts the user to input detailed body type information (step S105). Detailed body type information is numerical information regarding a detailed body type other than height and weight. Specifically, the chest circumference, arm length, thigh circumference, and the like are included, but these items do not particularly limit the present invention. Further, the detailed body type information may include the head image of the user. Input of these detailed body type information is optional, and new member registration is possible even if no input has been made.

続くステップS106で、サーバ3は、ユーザが入力した個人情報などの最終確認を行なう要求を受け付けるための「最終確認に進むボタン」を押下するのを待つ。サーバは、「最終確認に進むボタン」が押下されていない場合(ステップS106がNO)、ステップS106を繰り返す。 In a succeeding step S106, the server 3 waits until the "progress to final confirmation" button for accepting a request for final confirmation of personal information input by the user is pressed. The server repeats step S106 when the “button for proceeding to final confirmation” is not pressed (NO in step S106).

一方、ユーザが最終確認に進むためのボタンを押下した場合(ステップS106がYES)、サーバ3は、ユーザが入力した個人情報に誤りがないかをユーザに確認させる画面を生成してユーザの端末装置2に送信する(ステップS107)。また、この画面には、ユーザが入力した個人情報などの最終確認が完了して、会員登録を要求する場合に押下する「登録ボタン」が表示されている。また、ユーザが個人情報などの入力に誤りがあって、入力画面に戻るための「戻るボタン」が表示されている。この「戻るボタン」が押下された場合の説明は、割愛する。 On the other hand, when the user presses the button for proceeding to final confirmation (YES in step S106), the server 3 generates a screen for prompting the user to confirm whether the personal information input by the user is correct, and the server 3 The data is transmitted to the device 2 (step S107). Further, on this screen, a "registration button" that is pressed when the final confirmation of the personal information input by the user is completed and the member registration is requested is displayed. In addition, there is an error in the input of personal information by the user, and a "return button" for returning to the input screen is displayed. The description when the "return button" is pressed will be omitted.

次に、サーバ3は、ユーザが会員登録の要求を送信するために「登録ボタン」を押下するのを待つ(ステップS108)。サーバ3は、「登録ボタン」が押下されていない場合(ステップS108がNO)、ステップS108を繰り返す。 Next, the server 3 waits for the user to press the "registration button" to send the request for member registration (step S108). If the “registration button” is not pressed (NO in step S108), the server 3 repeats step S108.

一方、「登録ボタン」が押下された場合(ステップS108がYES)、サーバ3は、ユーザが入力した個人情報および新たに付与するユーザ識別情報を対応付けてサーバ記憶部313のユーザデータベース312に記憶する(ステップS109)。そして、サーバ3は、新規会員登録処理を終了させる。 On the other hand, when the “register button” is pressed (YES in step S108), the server 3 stores the personal information input by the user and the user identification information newly added in the user database 312 of the server storage unit 313 in association with each other. Yes (step S109). Then, the server 3 ends the new member registration process.

(生成部315および変換部316による仮想試着画像の生成処理)
図15は、本実施形態にかかる仮想試着システム1による複数の衣服の仮想試着画像の生成処理の一連の流れの動作シーケンスの一例を示す図である。すなわち、ユーザが衣服データベース311から選択した任意の複数の衣服を試着した際の仮想試着状態を仮想の3次元画像と生成する際の処理である。
(Processing of Generating Virtual Fitting Image by Generation Unit 315 and Conversion Unit 316)
FIG. 15 is a diagram showing an example of an operation sequence of a series of processes for generating virtual fitting images of a plurality of clothes by the virtual fitting system 1 according to the present embodiment. That is, this is a process of generating a virtual three-dimensional image of a virtual fitting state when a user tries on a plurality of arbitrary clothes selected from the clothes database 311.

以下に説明する動作シーケンスは、予めサーバ記憶部313に記憶されているプログラムに基づいて、主にサーバ処理部317により、サーバ3の各要素と協働して実行される。更に、以下に説明する動作シーケンスは、予めユーザの端末装置2の端末記憶部212に記憶されているプログラムに基づいて、主に端末装置2の端末処理部215により、端末装置2の各要素と協働して実行される。また、以下に説明する動作シーケンスにおいて、サーバ3は、サーバ通信部318を介してユーザの端末装置2と各種の情報を送受信する。 The operation sequence described below is executed mainly by the server processing unit 317 in cooperation with each element of the server 3 based on a program stored in the server storage unit 313 in advance. Further, the operation sequence described below is based on a program stored in the terminal storage unit 212 of the user's terminal device 2 in advance, mainly by the terminal processing unit 215 of the terminal device 2 and each element of the terminal device 2. It is executed in collaboration. In the operation sequence described below, the server 3 transmits/receives various information to/from the user terminal device 2 via the server communication unit 318.

本処理は、ユーザが複数の衣服を衣服データベース311から選択する工程を終えた後に行なわれるため、ユーザによる衣服データベース311から衣服を選択する処理については、本実施形態において割愛する。また、本実施形態は、複数の衣服の仮想試着画像を生成することに特徴を有するが、単一の衣服の仮想試着画像を生成する機能を有してもよい。 Since this process is performed after the user finishes the process of selecting a plurality of clothes from the clothes database 311, the process of the user selecting clothes from the clothes database 311 will be omitted in this embodiment. Further, the present embodiment is characterized by generating virtual fitting images of a plurality of clothes, but may have a function of generating virtual fitting images of a single clothes.

まず、サーバ3は、ユーザの端末装置2から複数の衣服の選択入力および当該選択入力された衣服の着衣順序の入力がされたか否かを判断する(ステップS201)。サーバ3は、複数の衣服の選択入力および当該選択入力された衣服の着衣順序の入力が確認できない場合(ステップS201がNO)、ステップS201を繰り返す。なお、ここで複数の衣服の着衣順序をユーザが入力し忘れていた場合などは、ユーザの端末装置2に警告表示などを表示し、ユーザによる着衣順序の入力を促す。また、複数の衣服の選択入力および当該選択入力された衣服の着衣順序の入力の確認は、「試着するボタン」などをユーザが押下した際に行なわれる。 First, the server 3 determines whether or not the selection input of a plurality of clothes and the wearing order of the selected and input clothes have been input from the user's terminal device 2 (step S201). The server 3 repeats step S201 when the selection input of a plurality of clothes and the input of the wearing order of the selected clothes are not confirmed (NO in step S201). If the user forgets to input the clothing order of a plurality of clothes, a warning display or the like is displayed on the user's terminal device 2 to prompt the user to input the clothing order. The selection input of a plurality of clothes and the confirmation of the wearing order of the selected and input clothes are performed when the user presses a “try-on button” or the like.

次にサーバ3は、ユーザが選択入力した複数の衣服のそれぞれについて2次元画像を衣服データベースから抽出する(ステップS202)。 Next, the server 3 extracts a two-dimensional image for each of the plurality of clothes selected and input by the user from the clothes database (step S202).

そして、サーバ3は、抽出した複数の2次元画像の距離画像および法線画像を重合して重合画像を生成する(ステップS203)。この重合画像は、サーバ3内で生成されるものであり、ユーザの端末装置2に送信されるものではない。 Then, the server 3 superimposes the extracted range images and normal images of the two-dimensional images to generate a superposed image (step S203). This superimposed image is generated in the server 3 and is not transmitted to the user's terminal device 2.

サーバ3は、ユーザの頭部画像および体型情報をユーザデータベース312から抽出して、抽出したユーザの体型情報を基に共通の中間ポリゴンモデルを補正して頭部画像を合成することでユーザの仮想人体モデルを生成する(ステップS204)。 The server 3 extracts the user's head image and body shape information from the user database 312, corrects a common intermediate polygon model based on the extracted body shape information of the user, and synthesizes the head image to synthesize the head image. A human body model is generated (step S204).

サーバ3は、ステップS204で生成されたユーザの仮想人体モデルにステップS203で生成された重合画像を更に重合することで、当該重合画像を試着画像としての3次元画像に変換する(ステップS205)。 The server 3 further superimposes the superimposed image generated in step S203 on the virtual human body model of the user generated in step S204, thereby converting the superimposed image into a three-dimensional image as a fitting image (step S205).

生成部315および変換部316による仮想試着画像の生成処理は、ユーザが仮想試着システム1にログインした状態で行なわれていることを前提としているが、仮想試着画像の生成処理は、未ログイン状態でも使用可能であり、本処理の任意のタイミングでログインをユーザに求めてよい。例えば、ステップS205の変換処理では、ユーザの体型情報をユーザデータベースから抽出する必要があるため、この処理に移行する直前にログインを必須としたり、ログインを促したりするとよい。 The virtual fitting image generation process by the generation unit 315 and the conversion unit 316 is premised on that the user is logged in to the virtual fitting system 1, but the virtual fitting image generation process is performed even in the unlogged state. It can be used, and the user may be required to log in at any timing of this processing. For example, in the conversion process of step S205, it is necessary to extract the body type information of the user from the user database, so it is preferable to require login or prompt login immediately before moving to this process.

以上説明したように、本実施形態にかかる仮想試着システム1は、複数の衣服の重ね着を、2次元画像を重合するという簡易な処理により衣服を正確に重ね合わせ、更に重合画像を最終的に3次元画像に戻すことで容易に3次元画像を生成することができる。すなわち、サーバ3の処理を軽減することができ、3次元画像の生成にかかる処理速度も早めることが可能となる。また、仮想試着システム1は、複数の衣服を共通の中間ポリゴンモデルを用いて2次元画像に変換して衣服データベース311に記憶しているため、複数の衣服およびユーザの体型を共通の中間ポリゴンモデルを用いて更に重合することで3次元画像を容易に得ることができる。 As described above, the virtual fitting system 1 according to the present embodiment accurately overlays a plurality of clothes by a simple process of superimposing a two-dimensional image, and finally the superposed images are finally superposed. By returning to the three-dimensional image, the three-dimensional image can be easily generated. That is, the processing of the server 3 can be reduced, and the processing speed for generating the three-dimensional image can be increased. Further, since the virtual fitting system 1 converts a plurality of clothes into a two-dimensional image using a common intermediate polygon model and stores the two-dimensional image in the clothes database 311, the plurality of clothes and the user's body shapes are shared by the common intermediate polygon model. A three-dimensional image can be easily obtained by further polymerizing with.

当業者は、本発明の精神および範囲から外れることなく、様々な変更、置換および修正をこれに加えることが可能であることを理解されたい。 It will be appreciated by those skilled in the art that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the invention.

(変形例1)
本実施形態において生成部315は、複数の衣服の2次元画像に含まれる同一法線方向における距離画像の値をピクセルごとに単純に加算したが、実際は人体または衣服の凹凸に応じて最外側の衣服の凹凸は、複数の重合画像の重合結果よりも滑らかになる。すなわち、女性の胸部や衣服のホタンなどの凹凸を考慮して最外側の衣服の凹凸を滑らかに処理することが好ましい。
(Modification 1)
In the present embodiment, the generation unit 315 simply adds, for each pixel, the values of the distance image in the same normal direction included in the two-dimensional images of a plurality of clothes. The unevenness of the clothes becomes smoother than the superposition result of a plurality of superposition images. That is, it is preferable to smoothly treat the unevenness of the outermost clothes in consideration of the unevenness of a woman's chest or clothes' scallops.

よって、生成部315は、法線画像が含む複数の法線方向のうち一法線方向における前記距離画像が持つ距離の大きさと、当該一法線方向の近傍の法線方向における距離画像が持つ距離の大きさとの差異に応じて、小さい距離を持つ法線方向の距離を大きい距離を持つ法線方向の距離に近づける補正を行なった上で重合画像を生成する。この補正によって、仮想試着画像を実際に試着した際の試着状態に近づけることができる。この処理は、着衣される衣服ごとに行なってもよく、加算された距離が算出された後に1回だけ行なわれるようにしてもよい。 Therefore, the generation unit 315 has the magnitude of the distance that the distance image has in one normal direction out of the plurality of normal directions included in the normal image and the distance image in the normal direction near the one normal direction. The overlapped image is generated after the correction for making the distance in the normal direction having a small distance closer to the distance in the normal direction having a large distance according to the difference from the magnitude of the distance. By this correction, the virtual fitting image can be brought closer to the fitting state when actually fitting the clothes. This process may be performed for each clothes to be put on, or may be performed only once after the added distance is calculated.

(変形例2)
本実施形態において生成部315は、衣服の素材の種類に問わず単純に複数の衣服の2次元画像に含まれる同一法線方向における距離画像の値をピクセルごとに加算したが、衣服の素材によっては、単純に距離を加算してしまうと実際の試着時の衣服状態と異なる仮想試着画像が生成されてしまう可能性がある。
(Modification 2)
In the present embodiment, the generation unit 315 simply adds, for each pixel, the value of the distance image in the same normal direction included in the two-dimensional images of a plurality of clothes regardless of the type of the material of the clothes. , There is a possibility that if the distances are simply added, a virtual fitting image different from the clothing state at the time of actual fitting is generated.

そこで、生成部315は、衣服データベース311に含まれる複数の衣服の素材情報または剛性情報に基づいて法線方向の距離を補正することで重合画像を生成する。すなわち、生成部315は、人体や下層の衣服の影響を受けやすい素材や受けにくい素材に応じて、最外側の距離を補正する。本変形例においても、変形例1同様に小さい距離を持つ法線方向の距離を大きい距離を持つ法線方向の距離に近づける補正を行なうとよい。なお、本変形例は、変形例1と組み合わせてもよい。 Therefore, the generation unit 315 generates a superimposed image by correcting the distance in the normal direction based on the material information or the rigidity information of the plurality of clothes included in the clothes database 311. That is, the generation unit 315 corrects the outermost distance in accordance with the material that is easily affected by the human body or the clothes of the lower layer and the material that is not easily affected. Also in this modification, it is preferable to perform correction so that the distance in the normal direction having a small distance is closer to the distance in the normal direction having a large distance, as in the first modification. Note that this modification may be combined with the modification 1.

(変形例3)
本実施形態において生成部315は、複数の衣服の2次元画像に含まれる距離画像および法線画像を重合した際に法線方向において最も外側に距離を持つ箇所の色彩を当該法線方向における色彩とすることで重合画像を生成したが、外側の衣服の透過度によっては、実際の試着した際の色彩と異なる場合がある。
(Modification 3)
In the present embodiment, the generation unit 315 determines the color of the portion having the outermost distance in the normal direction when the distance images and the normal images included in the two-dimensional images of the plurality of clothes are superimposed, in the normal direction. By doing so, a superimposed image was generated, but the color may differ from the color when actually tried on depending on the transparency of the outer clothes.

よって、生成部315は、複数の衣服の外側衣服および当該外側衣服の内側衣服の色彩、および外側衣服の透過度に基づいて当該法線方向における色彩を補正することで重合画像を生成する。すなわち、外側衣服の透過度が大きい場合は、その下の層の衣服の色が透過する。透過度に応じて、下の層の衣服の色彩を外側衣服の色彩に加える割合を変更することでより正確な仮想試着画像を得ることができる。 Therefore, the generation unit 315 generates the superimposed image by correcting the colors in the normal direction based on the colors of the outer clothes of the plurality of clothes and the inner clothes of the outer clothes, and the transparency of the outer clothes. That is, when the transparency of the outer garment is high, the color of the garment in the lower layer is transparent. A more accurate virtual fitting image can be obtained by changing the proportion of the color of the clothes in the lower layer to the color of the outer clothes according to the transparency.

(本発明の適用範囲)
本実施形態にかかる仮想試着システム1は、複数のユーザの端末装置2のウェブブラウザをユーザが相互に制御してインターネット4などを介してサーバ3が複数の衣服の重ね着を可視した仮想試着画像を複数のユーザの端末装置2に送信することを前提としている。別の態様として、複数のユーザの端末装置2がサーバ3からダウンロードしたアプリケーションソフトウェアの機能として、仮想試着を実施することも可能である。すなわち、アプリケーションは、サーバ3のサーバ記憶部に記憶されている衣服データベース311を参照して、任意の複数の衣服を選択入力する。また、衣服データベース311がサーバ3ではなく、外部のサーバやユーザの端末装置2に含まれる構成とすることも可能である。複数の衣服の選択入力を受け付けた場合に、ユーザの端末装置は、アプリケーションソフトウェアと共同して、2次元画像の重合画像を生成したり、重合画像を3次元に変換したりする。この場合、上述の生成部315および変換部316の制御を端末処理部215が担うことになる。
(Scope of application of the present invention)
The virtual fitting system 1 according to the present embodiment is a virtual fitting image in which the users mutually control the web browsers of the terminal devices 2 of a plurality of users, and the server 3 makes it possible for the server 3 to view the wearing of a plurality of clothes via the Internet 4 or the like. Is transmitted to the terminal devices 2 of a plurality of users. As another aspect, virtual fitting can be performed as a function of application software downloaded from the server 3 by the terminal devices 2 of a plurality of users. That is, the application refers to the clothing database 311 stored in the server storage unit of the server 3 and selects and inputs a plurality of arbitrary clothing. Further, the clothing database 311 may be included not in the server 3 but in an external server or the user's terminal device 2. When the selection input of a plurality of clothes is accepted, the user's terminal device cooperates with the application software to generate a two-dimensional superimposed image or to convert the superimposed image into three-dimensional. In this case, the terminal processing unit 215 is responsible for the control of the generation unit 315 and the conversion unit 316 described above.

[第2実施形態]
次に、第2実施形態について説明する。なお、第2実施形態では、第1実施形態と異なる部分のみ説明し、第1実施形態と同様の部分の説明を省略する。
[Second Embodiment]
Next, a second embodiment will be described. In the second embodiment, only the parts different from the first embodiment will be described, and the description of the same parts as the first embodiment will be omitted.

第2実施形態の仮想試着システム1では、生成部315は、複数の衣服の2次元画像に含まれる距離画像および2次元画像の不透明度を表すアルファに基づいて、重合画像を生成する。
距離画像には、例えば、ベクター・ディスプレイスメント・マップ(Vector Displacement Map)を利用する。ベクター・ディスレイスメント・マップは、赤色・緑色・青色(RGB)それぞれのチャンネルで3次元の変位を示すことができる。
In the virtual fitting system 1 of the second embodiment, the generation unit 315 generates a superimposed image based on the distance image included in the two-dimensional images of a plurality of clothes and the alpha representing the opacity of the two-dimensional image.
For the distance image, for example, a vector displacement map (Vector Displacement Map) is used. The vector displacement map can show three-dimensional displacement in each of red, green and blue (RGB) channels.

ベクター・ディスプレイスメント・マップは、仮想試着システム1によって、又は、仮想試着システム1の外部に配される装置において、例えば、次のように生成される。
まず、仮想試着システム1等は、UVマップに基づいて、3次元モデル(中間モデル)の空間上の座標から第1のポジションマップ(X,Y,Z座標をそれぞれR,G,Bで保存したもの)を生成する。次に、仮想試着システム1等は、例えば、シュリンクラップ(あるモデルの頂点を別のモデルの表面に投影する技術)等を利用して、3次元モデル(中間モデル)を、形状を取得したい対象を示すモデルに変形させることに基づいて、第2のポジションマップを生成する。ベクター・ディスプレイスメント・マップは、第2のポジションマップの値から第1のポジションマップの値を引くことにより算出される。
なお、UVマップは、3次元モデルを構成する面を2次元平面にどのように展開するかを示すデータである。3次元モデルを構成する面は、それ単体では平面とみなすことができる。UVマップは、3次元モデルの各平面に画像をどのように割り当てるのかを示すデータである。
The vector displacement map is generated by the virtual fitting system 1 or in a device arranged outside the virtual fitting system 1, for example, as follows.
First, the virtual fitting system 1 and the like store the first position map (X, Y, Z coordinates in R, G, B, respectively) from the coordinates on the space of the three-dimensional model (intermediate model) based on the UV map. Stuff) is generated. Next, the virtual fitting system 1 or the like uses, for example, a shrink wrap (a technique of projecting the vertices of one model onto the surface of another model) or the like, to obtain the shape of a three-dimensional model (intermediate model). The second position map is generated based on the transformation into the model indicating The vector displacement map is calculated by subtracting the value of the first position map from the value of the second position map.
The UV map is data indicating how to develop the surfaces forming the three-dimensional model into a two-dimensional plane. The surface forming the three-dimensional model can be regarded as a plane by itself. The UV map is data indicating how an image is assigned to each plane of the three-dimensional model.

アルファは、例えば、画像編集ソフトによるペイント処理に基づいて、2次元画像から取得される。又は、アルファは、例えば、ベイク(転写)処理により、衣服に関する他のモデルの色及び不透明度に基づいて取得される。 The alpha is acquired from the two-dimensional image, for example, based on the painting process by the image editing software. Alternatively, the alpha is acquired based on the color and opacity of another model regarding the clothes, for example, by a baking (transfer) process.

図18は、第2実施形態に係り、着衣順序が最内側となる衣服の2次元画像(衣服の画像)を示す模式図である。図19は、第2実施形態に係り、着衣順序が最内側となる衣服の2次元画像(ベクター・ディスプレイスメント・マップ)を示す模式図である。図20は、第2実施形態に係り、着衣順序が最外側となる衣服の2次元画像(衣服の画像)を示す模式図である。図21は、第2実施形態に係り、着衣順序が最外側となる衣服の2次元画像(ベクター・ディスプレイスメント・マップ)を示す模式図である。図22は、着衣順序が最内側となる衣服に関して、ベクター・ディスプレイスメント・マップに衣服の画像のアルファチャンネルを適用した画像を示す模式図である。図23は、着衣順序が最外側となる衣服に関して、ベクター・ディスプレイスメント・マップに衣服の画像のアルファチャンネルを適用した画像を示す模式図である。図24は、最内側の衣服の画像と最外側の衣服の画像とを重合した画像(衣服の画像同士のアルファ合成)を示す模式図である。図25は、最内側の衣服の画像と最外側の衣服の画像とを重合した画像(ベクター・ディスプレイスメント・マップ同士のアルファ合成)を示す模式図である。 FIG. 18 is a schematic diagram illustrating a two-dimensional image (clothes image) of clothes in which the clothing order is the innermost side according to the second embodiment. FIG. 19 is a schematic diagram showing a two-dimensional image (vector displacement map) of clothes in which the clothing order is the innermost side according to the second embodiment. FIG. 20 is a schematic diagram showing a two-dimensional image (clothes image) of clothes in the outermost clothing order according to the second embodiment. FIG. 21 is a schematic diagram showing a two-dimensional image (vector displacement map) of clothes in which the clothing order is the outermost part according to the second embodiment. FIG. 22 is a schematic diagram showing an image in which the alpha channel of the image of the clothes is applied to the vector displacement map regarding the clothes having the innermost clothing order. FIG. 23 is a schematic diagram showing an image in which the alpha channel of the image of the clothes is applied to the vector displacement map for the clothes whose clothes order is the outermost side. FIG. 24 is a schematic diagram showing an image in which the image of the innermost clothes and the image of the outermost clothes are superimposed (alpha composition of the clothes images). FIG. 25 is a schematic diagram showing an image in which the image of the innermost clothes and the image of the outermost clothes are overlapped (alpha composition of vector displacement maps).

生成部315は、着衣順序が最内側となる衣服の2次元画像を衣服データベース311から抽出して、ベクター・ディスプレイスメント・マップ(図19)に衣服の画像(図18)のアルファチャンネルを適用する。その適用した結果は、図22に示すようになる。
生成部315は、着衣順序が最外側となる衣服の2次元画像を衣服データベース311から抽出して、ベクター・ディスプレイスメント・マップ(図21)に衣服の画像(図20)のアルファチャンネルを適用する。その適用した結果は、図23に示すようになる。
The generation unit 315 extracts a two-dimensional image of the clothes whose innermost is in the clothing order from the clothes database 311, and applies the alpha channel of the clothes image (FIG. 18) to the vector displacement map (FIG. 19). .. The applied result is as shown in FIG.
The generation unit 315 extracts a two-dimensional image of clothes whose outermost clothes are placed from the clothes database 311, and applies the alpha channel of the clothes image (FIG. 20) to the vector displacement map (FIG. 21). .. The applied result is as shown in FIG.

次に、生成部315は、最内側の衣服と最外側の衣服とを重合する。具体的には、生成部315は、最内側の衣服の画像(図18)と、最外側の衣服の画像(図20)とをアルファ合成する。アルファ合成は、RGB及びアルファの値を持つ画像の各画素の色(RGB)を透過情報(アルファ)を使用して合成する処理である。そのアルファ合成の結果は、図24に示すようになる。これにより、生成部315は、透過度に応じて衣服の「色」を合成することができる。「重合」は、複数の画像を合成する、又は、複数の画像を重畳するような処理である。 Next, the generation unit 315 polymerizes the innermost clothes and the outermost clothes. Specifically, the generation unit 315 performs alpha synthesis of the image of the innermost clothes (FIG. 18) and the image of the outermost clothes (FIG. 20). The alpha combination is a process of combining the color (RGB) of each pixel of an image having RGB and alpha values using the transparency information (alpha). The result of the alpha synthesis is as shown in FIG. Accordingly, the generation unit 315 can combine the “color” of the clothes according to the transparency. "Overlapping" is a process of combining a plurality of images or superimposing a plurality of images.

生成部315は、最内側の衣服のベクター・ディスプレイスメント・マップ(図22)と、最外側の衣服のベクター・ディスプレイスメント・マップ(図23)とをアルファ合成する。ベクター・ディスプレイスメント・マップは、本来、3次元の変位(X,Y,Z座標)を示すRGBチャンネルしかない。しかし、本実施形態では、生成部315によってベクター・ディスプレイスメント・マップに衣服の画像から取得したアルファチャンネルを追加しているため、アルファ合成の手法が適用可能になる。そのアルファ合成の結果は、図25に示すようになる。これにより、生成部315は、透過度に応じて衣服の「変位量」を合成することができる。 The generation unit 315 alpha-composites the vector displacement map (FIG. 22) of the innermost clothes and the vector displacement map (FIG. 23) of the outermost clothes. Vector displacement maps are essentially only RGB channels that show three-dimensional displacements (X, Y, Z coordinates). However, in this embodiment, since the alpha channel acquired from the image of the clothes is added to the vector displacement map by the generation unit 315, the alpha synthesis method can be applied. The result of the alpha synthesis is as shown in FIG. Accordingly, the generation unit 315 can combine the “displacement amount” of the clothing according to the transparency.

変換部316は、生成部315によって重合された2次元画像に基づいて、第1実施形態と同様に、3次元画像を生成する。 The conversion unit 316 generates a three-dimensional image based on the two-dimensional image superimposed by the generation unit 315, as in the first embodiment.

1 仮想試着システム
2 端末装置
211 端末通信部
212 端末記憶部
213 端末操作部
214 端末表示部
215 端末処理部
3 サーバ
311 衣服データベース
312 ユーザデータベース
313 サーバ記憶部
314 受付部
315 生成部
316 変換部
317 サーバ処理部
318 サーバ通信部
DESCRIPTION OF SYMBOLS 1 Virtual fitting system 2 Terminal device 211 Terminal communication unit 212 Terminal storage unit 213 Terminal operation unit 214 Terminal display unit 215 Terminal processing unit 3 Server 311 Clothing database 312 User database 313 Server storage unit 314 Reception unit 315 Generation unit 316 Conversion unit 317 server Processing unit 318 Server communication unit

Claims (12)

モデルの頭部画像および当該モデルの体型情報を端末装置より受け付けるモデル情報受付部と、
身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付ける衣服情報受付部と、
前記複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより前記任意の複数の衣服に対応する2次元画像を抽出し、前記着衣順序に基づいて前記2次元画像を重合した重合画像を生成する生成処理部と、
前記重合画像を前記体型情報に基づいて3次元画像に変換をする変換処理部と、
前記3次元画像および前記頭部画像を前記端末装置へ送信する送信部と、
を含むことを特徴とする仮想試着装置。
A model information receiving unit that receives a head image of the model and body information of the model from the terminal device,
A clothing information receiving unit that receives an arbitrary plurality of clothes and a wearing order of the arbitrary plurality of clothes in the same body part;
A two-dimensional image corresponding to the arbitrary plurality of clothes is extracted from an image information database obtained by converting the clothing states of the plurality of clothing into a two-dimensional image, and a superposed image obtained by superposing the two-dimensional images based on the clothing order is displayed. A generation processing unit that generates,
A conversion processing unit that converts the superimposed image into a three-dimensional image based on the body type information;
A transmitter that transmits the three-dimensional image and the head image to the terminal device;
A virtual fitting device including:
前記生成処理部は、任意の中間ポリゴンモデルを共通に使用して変換された前記2次元画像を重合することで前記重合画像を生成する
ことを特徴とする請求項1に記載の仮想試着装置。
The virtual fitting apparatus according to claim 1, wherein the generation processing unit generates the overlapped image by overlapping the converted two-dimensional images using an arbitrary intermediate polygon model in common.
前記変換処理部は、前記体型情報を基に前記任意の中間ポリゴンモデルを補正することで前記モデルの仮想人体モデルを生成し、
前記変換処理部は、前記仮想人体モデルに前記重合画像を更に重合することで前記重合画像を前記3次元画像に変換する
ことを特徴とする請求項2に記載の仮想試着装置。
The conversion processing unit generates a virtual human body model of the model by correcting the arbitrary intermediate polygon model based on the body type information,
The virtual fitting apparatus according to claim 2, wherein the conversion processing unit converts the superimposed image into the three-dimensional image by further superimposing the superimposed image on the virtual human body model.
前記生成処理部は、前記複数の衣服の2次元画像に含まれる距離画像および法線画像を重合することで前記重合画像を生成する
ことを特徴とする請求項3に記載の仮想試着装置。
The virtual fitting apparatus according to claim 3, wherein the generation processing unit generates the overlapping image by overlapping the distance image and the normal image included in the two-dimensional images of the plurality of clothes.
前記生成処理部は、前記法線画像が含む一法線方向における前記距離画像が持つ距離の大きさを最内側衣服から最外側の衣服に向けて加算することで前記一法線方向における距離を算出することで前記重合画像を生成する
ことを特徴とする請求項4に記載の仮想試着装置。
The generation processing unit calculates the distance in the one normal direction by adding the magnitude of the distance of the distance image in the one normal direction included in the normal image from the innermost clothes to the outermost clothes. The virtual fitting apparatus according to claim 4, wherein the superimposed image is generated by calculation.
前記生成処理部は、前記法線画像が含む複数の法線方向のうち一法線方向における前記距離画像が持つ距離の大きさと、当該一法線方向の近傍の法線方向における距離画像が持つ距離の大きさとの差異に応じて、小さい距離を持つ法線方向の距離を大きい距離を持つ法線方向の距離に近づけることで前記重合画像を生成する
ことを特徴とする請求項5に記載の仮想試着装置。
The generation processing unit has a size of a distance that the distance image has in one normal direction among a plurality of normal directions included in the normal image and a distance image in a normal direction near the one normal direction. The overlapped image is generated by bringing the distance in the normal direction having a small distance closer to the distance in the normal direction having a large distance according to the difference from the magnitude of the distance. Virtual fitting device.
前記画像情報データベースは、前記複数の衣服の素材情報または剛性情報を更に含み、
前記生成処理部は、前記素材情報または剛性情報を基に前記法線方向の距離を補正することで前記重合画像を生成する
ことを特徴とする請求項6に記載の仮想試着装置。
The image information database further includes material information or rigidity information of the plurality of clothes,
The virtual fitting apparatus according to claim 6, wherein the generation processing unit generates the superimposed image by correcting the distance in the normal direction based on the material information or the rigidity information.
前記2次元画像は、色彩画像を更に含み、
前記生成処理部は、前記3次元画像の色彩として、前記複数の衣服の2次元画像に含まれる前記距離画像および法線画像を重合した際に法線方向において最も外側に距離を持つ箇所の色彩を当該法線方向における色彩とすることで前記重合画像を生成する
ことを特徴とする請求項7に記載の仮想試着装置。
The two-dimensional image further includes a color image,
The generation processing unit uses, as the color of the three-dimensional image, the color of the portion having the outermost distance in the normal direction when the distance image and the normal image included in the two-dimensional images of the plurality of clothes are superimposed. The virtual fitting apparatus according to claim 7, wherein the overlapping image is generated by setting the color in the normal direction.
前記生成処理部は、前記複数の衣服の外側衣服および当該外側衣服の内側衣服の色彩、および前記外側衣服の透過度に基づいて当該法線方向における色彩を補正することで前記重合画像を生成する
ことを特徴とする請求項8に記載の仮想試着装置。
The generation processing unit generates the superimposed image by correcting the colors of the outer clothes of the plurality of clothes and the inner clothes of the outer clothes, and the colors in the normal direction based on the transparency of the outer clothes. The virtual fitting apparatus according to claim 8, wherein
前記生成処理部は、前記複数の衣服の2次元画像に含まれる距離画像および2次元画像の不透明度を表すアルファに基づいて、前記重合画像を生成する
請求項3に記載の仮想試着装置。
The virtual fitting apparatus according to claim 3, wherein the generation processing unit generates the superimposed image based on an alpha representing the opacity of the distance image and the two-dimensional images included in the two-dimensional images of the plurality of clothes.
モデルの頭部画像および当該モデルの体型情報を端末装置より受け付けるステップと、
身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付けるステップと、
前記複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより前記任意の複数の衣服に対応する2次元画像を抽出し、前記着衣順序に基づいて前記2次元画像を重合した重合画像を生成するステップと、
前記重合画像を前記体型情報に基づいて3次元画像に変換をするステップと、
前記3次元画像および前記頭部画像を前記端末装置へ送信するステップと、
を含むことを特徴とする仮想試着方法。
A step of receiving the head image of the model and the body type information of the model from the terminal device;
Receiving a plurality of arbitrary clothes and a wearing order of the plurality of arbitrary clothes in the same body part,
A two-dimensional image corresponding to the arbitrary plurality of clothes is extracted from an image information database obtained by converting the clothing states of the plurality of clothes into a two-dimensional image, and a superposed image obtained by superposing the two-dimensional images based on the clothing order is displayed. The steps to generate,
Converting the superimposed image into a three-dimensional image based on the body shape information;
Transmitting the three-dimensional image and the head image to the terminal device;
A virtual fitting method, including:
コンピュータに、
モデルの頭部画像および当該モデルの体型情報を端末装置より受け付ける機能と、
身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付ける機能と、
前記複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより前記任意の複数の衣服に対応する2次元画像を抽出し、前記着衣順序に基づいて前記2次元画像を重合した重合画像を生成する機能と、
前記重合画像を前記体型情報に基づいて3次元画像に変換をする機能と、
前記3次元画像および前記頭部画像を前記端末装置へ送信する機能と、
を実現させることを特徴とする仮想試着プログラム。
On the computer,
A function of receiving the head image of the model and the body type information of the model from the terminal device,
A function of accepting an arbitrary plurality of clothes and a wearing order of the arbitrary plurality of clothes in the same body part,
A two-dimensional image corresponding to the arbitrary plurality of clothes is extracted from an image information database obtained by converting the clothing states of the plurality of clothing into a two-dimensional image, and a superposed image obtained by superposing the two-dimensional images based on the clothing order is displayed. The function to generate,
A function of converting the superimposed image into a three-dimensional image based on the body shape information,
A function of transmitting the three-dimensional image and the head image to the terminal device,
A virtual fitting program that realizes
JP2019557892A 2018-07-02 2019-07-01 Virtual fitting device, virtual fitting method, and virtual fitting program Active JP6631988B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018126372 2018-07-02
JP2018126372 2018-07-02
PCT/JP2019/026127 WO2020009066A1 (en) 2018-07-02 2019-07-01 Virtual try-on fitting apparatus, virtual try-on fitting method, and virtual try-on fitting program

Publications (2)

Publication Number Publication Date
JP6631988B1 JP6631988B1 (en) 2020-01-15
JPWO2020009066A1 true JPWO2020009066A1 (en) 2020-07-16

Family

ID=69060358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019557892A Active JP6631988B1 (en) 2018-07-02 2019-07-01 Virtual fitting device, virtual fitting method, and virtual fitting program

Country Status (2)

Country Link
JP (1) JP6631988B1 (en)
WO (1) WO2020009066A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114556435A (en) * 2021-05-28 2022-05-27 株式会社威亚视 Information processing apparatus, information processing method, and program
CN114556332B (en) * 2021-06-22 2022-11-11 株式会社威亚视 Information processing apparatus, 3D system, and information processing method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102033A (en) * 1995-08-03 1997-04-15 Sanyo Electric Co Ltd Picture synthesis method
JP3742394B2 (en) * 2003-03-07 2006-02-01 デジタルファッション株式会社 Virtual try-on display device, virtual try-on display method, virtual try-on display program, and computer-readable recording medium storing the program
JP4189339B2 (en) * 2004-03-09 2008-12-03 日本電信電話株式会社 Three-dimensional model generation method, generation apparatus, program, and recording medium
JP5722603B2 (en) * 2010-12-03 2015-05-20 新日鉄住金ソリューションズ株式会社 Augmented reality presentation device, augmented reality presentation method and program
JP6341646B2 (en) * 2013-10-17 2018-06-13 セーレン株式会社 Try-on support device and method
JP6352044B2 (en) * 2014-05-09 2018-07-04 セーレン株式会社 Layered image processing apparatus and method

Also Published As

Publication number Publication date
JP6631988B1 (en) 2020-01-15
WO2020009066A1 (en) 2020-01-09

Similar Documents

Publication Publication Date Title
US8711175B2 (en) Method and system for simulating superimposition of a non-linearly stretchable object upon a base object using representative images
KR102189394B1 (en) Fashion preference analysis
JP2020194602A (en) Search system, search method, and program
WO2015129353A1 (en) Virtual trial-fitting system, virtual trial-fitting program, virtual trial-fitting method, and storage medium in which virtual trial-fitting program is stored
EP3745352B1 (en) Methods and systems for determining body measurements and providing clothing size recommendations
US20140279289A1 (en) Mobile Application and Method for Virtual Dressing Room Visualization
CN105556508A (en) Devices, systems and methods of virtualizing a mirror
JP2015180987A (en) Image processing apparatus, image processing system, image processing method, and program
EP2959448A1 (en) A method for automatically filling a virtual shopping cart with items
JP2007011543A (en) Article-wearing simulation system, article-wearing simulation method, and the like
JP2016038811A (en) Virtual try-on apparatus, virtual try-on method and program
JP5264634B2 (en) Coordinating system, coordinating method and program
JP6631988B1 (en) Virtual fitting device, virtual fitting method, and virtual fitting program
JP2016004564A (en) Try-on support system using augmented reality
JP6938494B2 (en) Flowerbed ordering system and planting plan support program
JP2016038813A (en) Virtual try-on apparatus, virtual try-on system, virtual try-on method and program
US20170364992A1 (en) Recommendation device, recommendation system, recommendation method, and program
JP2022036963A (en) Size measurement system
JP2011198112A (en) Commodity selection system, commodity model device, object model device, object data acquisition device, mail order method, body shape management system, and non-contact measurement means
KR102125314B1 (en) Method and Apparatus for Providing Product Information by Using Store and Image Information
KR101767144B1 (en) Apparatus, method and computer program for generating 3-dimensional model of clothes
KR101322914B1 (en) Method for searching products applying visual items
CN105844513A (en) Cloud service based clothes try-on method and apparatus
US20140136560A1 (en) System and method for selecting the recommended size of an article of clothing
JP2001344481A (en) Internet boutique system and its selling method, and recording medium with recorded program thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191025

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191025

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191203

R150 Certificate of patent or registration of utility model

Ref document number: 6631988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250