JP6631988B1 - Virtual fitting device, virtual fitting method, and virtual fitting program - Google Patents

Virtual fitting device, virtual fitting method, and virtual fitting program Download PDF

Info

Publication number
JP6631988B1
JP6631988B1 JP2019557892A JP2019557892A JP6631988B1 JP 6631988 B1 JP6631988 B1 JP 6631988B1 JP 2019557892 A JP2019557892 A JP 2019557892A JP 2019557892 A JP2019557892 A JP 2019557892A JP 6631988 B1 JP6631988 B1 JP 6631988B1
Authority
JP
Japan
Prior art keywords
image
clothes
clothing
dimensional image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019557892A
Other languages
Japanese (ja)
Other versions
JPWO2020009066A1 (en
Inventor
裕史 中里
裕史 中里
佑介 實方
佑介 實方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BLOOMSCHEME, INC.
Original Assignee
BLOOMSCHEME, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BLOOMSCHEME, INC. filed Critical BLOOMSCHEME, INC.
Application granted granted Critical
Publication of JP6631988B1 publication Critical patent/JP6631988B1/en
Publication of JPWO2020009066A1 publication Critical patent/JPWO2020009066A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

3次元画像の合成画像を低負荷で生成可能な仮想試着技術を提供する。仮想試着装置は、モデルの頭部画像および当該モデルの体型情報を端末装置より受け付けるモデル情報受付部と、身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付ける衣服情報受付部と、複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより任意の複数の衣服に対応する2次元画像を抽出し、着衣順序に基づいて2次元画像を重合した重合画像を生成する生成処理部と、重合画像を体型情報に基づいて3次元画像に変換をする変換処理部と、3次元画像および頭部画像を端末装置へ送信する送信部と、を含んで構成されている。A virtual fitting technique capable of generating a composite image of a three-dimensional image with a low load is provided. The virtual fitting device is a model information receiving unit that receives a head image of the model and the body type information of the model from a terminal device, and a clothing that receives an arbitrary plurality of clothes and an arbitrary order of the arbitrary clothes in the same part of the body. A superimposed image obtained by extracting a two-dimensional image corresponding to an arbitrary plurality of clothes from an information receiving unit and an image information database obtained by converting the state of clothes of the plurality of clothes into a two-dimensional image, and superimposing the two-dimensional images based on the order of clothes. , A conversion processing unit that converts the superimposed image into a three-dimensional image based on the body shape information, and a transmission unit that transmits the three-dimensional image and the head image to the terminal device. ing.

Description

本発明は、仮想試着装置、仮想試着方法、および仮想試着プログラムに関する。   The present invention relates to a virtual fitting device, a virtual fitting method, and a virtual fitting program.

衣服を購入する際に試着をすることが通常行なわれる。試着をするために購入者は、衣服を販売する店舗に出向き、衣服を選択した上で試着用に設けられた空間に移動して試着を行なう。試着をするために購入者は、それまで着ていた衣服を脱衣する必要があり、これを狭い試着用の空間で行なうことは困難を伴う場合もあり、購入者にストレスを与える可能性がある。   Trying on when buying clothes is usually done. In order to try on, a purchaser goes to a store that sells clothes, selects clothes, moves to a space provided for try-on, and performs try-on. In order to try on, the buyer needs to undress the clothes that he or she was wearing, and doing so in a small fitting space can be difficult and can stress the buyer .

一方、衣服などを購入するタイミングや場所に制限されないインターネットショップで衣服を購入することも近年では当たり前に行なわれている。しかし、この場合、購入者は、購入するか否かを迷っている商品の試着をできないため、購入を決断できずに購入を断念する場合や、購入したとしてもサイズが合わずに衣服を着衣することがないままになる場合がある。   On the other hand, in recent years, it has become commonplace to purchase clothes at an Internet shop that is not restricted by the timing or place at which clothes are purchased. However, in this case, the purchaser cannot try on the product for which he or she is wondering whether or not to purchase it, so the purchaser cannot give up and decide to give up, or even if he purchases his clothes, the size does not match. May be left untouched.

このような状況を改善すべく、インターネットを通じて購入を迷っている衣服を試着できるシステムが開発されている。例えば、特許文献1には、撮像部によりコード画像が形成されたコードラベルが取り付けられた試着者を撮像して、撮像画像内のコード画像の位置であるコード位置を検出して、服飾の画像を検出したコード位置を基準にして撮像画像上に配置した合成画像を生成することで合成画像を生成する仮想試着システムが開示されている。このシステムでは、試着者の一部位に一つの衣服を試着することができる。例えば、ハット、トップス、ボトムスのそれぞれに一つの衣服を選択可能としている。よって、この場合、試着者は、複数の衣服を重ねて試着することができない。   In order to improve such a situation, a system has been developed that allows users to try on clothes that are lost in purchase through the Internet. For example, in Patent Literature 1, an image of a try-on to which a code label on which a code image is formed by an imaging unit is attached, a code position that is a position of the code image in the captured image is detected, and an image of a dress is displayed. A virtual fitting system that generates a composite image by generating a composite image arranged on a captured image with reference to a code position in which is detected is disclosed. In this system, one piece of clothing can be tried on at one site of the try-on person. For example, one clothing can be selected for each of the hat, the tops, and the bottoms. Therefore, in this case, the try-on person cannot try on a plurality of clothes in a pile.

重ね着を仮想空間で実現するために、3次元画像を複数重ねることが可能である。3次元画像を重ね合わせると、複数の衣服同士の上下関係を正確に再現することができず、内側の衣服が外側の衣服を突き抜けてしまう所謂「突き抜け」が発生してしまう場合がある。図16は、複数の衣服の3次元画像を合成およびその結果を示す模式図である。図からも明らかな通り、単に3次元画像を合成しただけでは、不確実性が高く、衣服同士の上下関係が適切に表現できない。このような合成画像は、試着画像としては不適切であり、購入者の衣服の購入の支援とならない可能性が高い。   In order to realize layering in a virtual space, a plurality of three-dimensional images can be superimposed. When the three-dimensional images are superimposed, the vertical relationship between a plurality of clothes cannot be accurately reproduced, and a so-called “penetration” in which the inner clothes pass through the outer clothes may occur. FIG. 16 is a schematic diagram illustrating the synthesis of a three-dimensional image of a plurality of clothes and the result. As is clear from the figure, simply combining three-dimensional images has high uncertainty, and the vertical relationship between clothes cannot be appropriately expressed. Such a composite image is inappropriate as a try-on image, and is likely not to assist purchasers in purchasing clothes.

また、物理演算によって複数の衣服の3次元画像を合成することも可能である。物理演算を使用した合成結果の一例として、図17は、近接ポリゴンに強制的に近づける方法を用いて得られた合成画像を示す模式図である。図17に示すように、近接ポリゴンに強制的に近づける方法としてShrink Wrapと呼ばれる方法がある。図16に示す一般的な3次元画像の合成と比較すると、衣服同士の上下関係が適切に処理されていることがわかる。しかし、それでも表面上の凹凸を維持できなかったり、衣服の存在しない領域で不具合が生じたり、更に処理結果を事前に予測することができなかったり、実用性には乏しい。物理演算は、非常に計算負荷が高く、通常の機器では即座に処理を完了することは不可能であり、衣服の試着のように多数の3次元画像の合成画像を短時間で生成するような場合には不適切な方法である。一方、計算負荷を下げてしまうと、低品質な物理演算となり、場合によっては、衣服の突き抜けが発生することもある。仮想試着画像を得るために、物理演算を使用する場合、即座に3次元画像の合成処理を完了することは不可能であり、ユーザにストレスを与える可能性が高く、仮想試着画像を視聴できないため、衣服の購買にも至らない可能性がある。   It is also possible to combine three-dimensional images of a plurality of clothes by physical calculation. FIG. 17 is a schematic diagram showing a composite image obtained by using a method of forcibly approaching a nearby polygon as an example of a composite result using physical operation. As shown in FIG. 17, there is a method called Shrink Wrap as a method for forcibly approaching a nearby polygon. When compared with the synthesis of the general three-dimensional image shown in FIG. 16, it can be seen that the vertical relationship between clothes is properly processed. However, the unevenness on the surface cannot be maintained, a problem occurs in a region where no clothes exist, the processing result cannot be predicted in advance, and the utility is poor. The physical operation has a very high computational load, and it is impossible to complete the process immediately with ordinary equipment. Therefore, it is difficult to generate a composite image of a large number of three-dimensional images in a short time, such as trying on clothes. In some cases it is an inappropriate method. On the other hand, if the calculation load is reduced, a low-quality physical operation is performed, and in some cases, clothes may pass through. When a physical operation is used to obtain a virtual fitting image, it is impossible to complete the three-dimensional image synthesizing process immediately, and there is a high possibility that the user will be stressed, and the virtual fitting image cannot be viewed. , It may not even lead to the purchase of clothing.

3次元画像の合成画像の精度を上げるために、DCCツール上で処理可能な方法としてサーフェースディフォームなどの方法を取り入れることも考えられるが、計算負荷が高く、衣服の試着のように多数の3次元画像の合成画像を短時間で生成するような場合には不適切な方法である。   In order to improve the accuracy of the composite image of the three-dimensional image, it is conceivable to adopt a method such as surface deforming as a method that can be processed on the DCC tool, but the calculation load is high, and many methods such as fitting of clothes are used. This method is inappropriate when a composite image of a three-dimensional image is generated in a short time.

特開2017−156957号公報JP-A-2017-156957

そこで、発明者らは、計算負荷が低く、且つ、3次元画像の合成画像の精度を高める仮想試着装置、仮想試着方法、および仮想試着プログラムを考案するに至った。すなわち、本発明は上記事情に鑑みてなされたものであり、3次元画像の合成画像を低負荷で生成可能な仮想試着装置、仮想試着方法、および仮想試着プログラムを提供することを目的とする。   Therefore, the inventors have devised a virtual fitting apparatus, a virtual fitting method, and a virtual fitting program that reduce the calculation load and increase the accuracy of the synthesized image of the three-dimensional image. That is, the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a virtual fitting apparatus, a virtual fitting method, and a virtual fitting program capable of generating a composite image of a three-dimensional image with a low load.

(1)本発明の第1態様は、モデルの頭部画像および当該モデルの体型情報を端末装置より受け付けるモデル情報受付部と、身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付ける衣服情報受付部と、複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより任意の複数の衣服に対応する2次元画像を抽出し、着衣順序に基づいて2次元画像を重合した重合画像を生成する生成処理部と、重合画像を体型情報に基づいて3次元画像に変換をする変換処理部と、3次元画像および頭部画像を端末装置へ送信する送信部と、を含むことを特徴とする仮想試着装置に関する。   (1) A first aspect of the present invention is a model information receiving unit that receives a head image of a model and body type information of the model from a terminal device, and arbitrary plural clothes and arbitrary plural clothes in the same part of the body. And a two-dimensional image corresponding to a plurality of arbitrary clothes is extracted from an image information database obtained by converting the state of clothes of the plurality of clothes into a two-dimensional image. A generation processing unit that generates a superimposed image obtained by superimposing images, a conversion processing unit that converts the superimposed image into a three-dimensional image based on the body type information, and a transmission unit that transmits the three-dimensional image and the head image to the terminal device. And a virtual fitting device.

(2)上記(1)において、生成処理部は、任意の中間ポリゴンモデルを共通に使用して変換された2次元画像を重合することで重合画像を生成してもよい。   (2) In (1) above, the generation processing unit may generate a superimposed image by superimposing a two-dimensional image converted using an arbitrary intermediate polygon model in common.

(3)上記(2)において、変換処理部は、体型情報を基に任意の中間ポリゴンモデルを補正することでモデルの仮想人体モデルを生成してもよく、変換処理部は、仮想人体モデルに重合画像を更に重合することで重合画像を3次元画像に変換してもよい。   (3) In the above (2), the conversion processing unit may generate a virtual human body model of the model by correcting an arbitrary intermediate polygon model based on the body type information. The polymerized image may be converted into a three-dimensional image by further polymerizing the polymerized image.

(4)上記(2)または(3)において、生成処理部は、複数の衣服の2次元画像に含まれる距離画像および法線画像を重合することで重合画像を生成してもよい。   (4) In the above (2) or (3), the generation processing unit may generate a superimposed image by superimposing a distance image and a normal image included in a two-dimensional image of a plurality of clothes.

(5)上記(4)において、生成処理部は、法線画像が含む一法線方向における距離画像が持つ距離の大きさを最内側衣服から最外側の衣服に向けて加算することで一法線方向における距離を算出することで重合画像を生成してもよい。   (5) In the above (4), the generation processing unit may add the magnitude of the distance of the distance image in the one normal direction included in the normal image from the innermost garment to the outermost garment to perform the one method. The overlap image may be generated by calculating the distance in the linear direction.

(6)上記(5)において、生成処理部は、法線画像が含む複数の法線方向のうち一法線方向における距離画像が持つ距離の大きさと、当該一法線方向の近傍の法線方向における距離画像が持つ距離の大きさとの差異に応じて、小さい距離を持つ法線方向の距離を大きい距離を持つ法線方向の距離に近づけることで重合画像を生成してもよい。   (6) In the above (5), the generation processing unit may determine the magnitude of the distance of the distance image in one normal direction among the plurality of normal directions included in the normal image, and the normal in the vicinity of the one normal direction. The overlap image may be generated by making the distance in the normal direction having a small distance close to the distance in the normal direction having a large distance in accordance with the difference between the distances of the distance images in the directions.

(7)上記(5)または(6)において、画像情報データベースは、複数の衣服の素材情報または剛性情報を更に含んでもよく、生成処理部は、素材情報または剛性情報を基に法線方向の距離を補正することで重合画像を生成してもよい。   (7) In the above (5) or (6), the image information database may further include material information or stiffness information of a plurality of clothes, and the generation processing unit may determine a normal direction based on the material information or stiffness information. A superimposed image may be generated by correcting the distance.

(8)上記(4)〜(7)のいずれかにおいて、2次元画像は、色彩画像を更に含んでもよく、生成処理部は、3次元画像の色彩として、複数の衣服の2次元画像に含まれる距離画像および法線画像を重合した際に法線方向において最も外側に距離を持つ箇所の色彩を当該法線方向における色彩とすることで重合画像を生成してもよい。   (8) In any one of the above (4) to (7), the two-dimensional image may further include a color image, and the generation processing unit includes the color of the three-dimensional image in the two-dimensional image of a plurality of clothes. When the distance image and the normal line image to be superimposed are superimposed, the superposed image may be generated by using the color of the portion having the outermost distance in the normal direction as the color in the normal direction.

(9)上記(8)において、生成処理部は、複数の衣服の外側衣服および当該外側衣服の内側衣服の色彩、および外側衣服の透過度に基づいて当該法線方向における色彩を補正することで重合画像を生成してもよい。   (9) In the above (8), the generation processing unit corrects the color in the normal direction based on the colors of the outer clothes of the plurality of clothes, the inner clothes of the outer clothes, and the transmittance of the outer clothes. A polymerization image may be generated.

(10)本発明の第2態様は、モデルの頭部画像および当該モデルの体型情報を端末装置より受け付けるステップと、身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付けるステップと、複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより任意の複数の衣服に対応する2次元画像を抽出し、着衣順序に基づいて2次元画像を重合した重合画像を生成するステップと、重合画像を体型情報に基づいて3次元画像に変換をするステップと、3次元画像および頭部画像を端末装置へ送信するステップと、を含むことを特徴とする仮想試着方法に関する。   (10) A second aspect of the present invention is a step of receiving a head image of a model and body type information of the model from a terminal device, and a plurality of arbitrary clothes and an order of wearing the arbitrary plurality of clothes in the same part of the body. Receiving a two-dimensional image corresponding to any of a plurality of clothes from an image information database obtained by converting the state of clothes of the plurality of clothes into a two-dimensional image, and superimposing the two-dimensional images based on the order of clothes , A step of converting the superimposed image into a three-dimensional image based on the body shape information, and a step of transmitting the three-dimensional image and the head image to the terminal device. About.

(11)本発明の第3態様は、コンピュータに、モデルの頭部画像および当該モデルの体型情報を端末装置より受け付ける機能と、身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付ける機能と、複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより任意の複数の衣服に対応する2次元画像を抽出し、着衣順序に基づいて2次元画像を重合した重合画像を生成する機能と、重合画像を体型情報に基づいて3次元画像に変換をする機能と、3次元画像および頭部画像を端末装置へ送信する機能と、を実現させることを特徴とする仮想試着プログラムに関する。   (11) A third aspect of the present invention is directed to a function of allowing a computer to receive a head image of a model and body type information of the model from a terminal device, a plurality of arbitrary clothes and an arbitrary plurality of clothes in the same part of the body. A two-dimensional image corresponding to an arbitrary plurality of clothes is extracted from an image information database obtained by converting the state of clothes of the plurality of clothes into a two-dimensional image, and the two-dimensional images are superimposed based on the order of clothes. A function of generating the overlapped image, a function of converting the overlapped image into a three-dimensional image based on the body shape information, and a function of transmitting the three-dimensional image and the head image to the terminal device. About a virtual fitting program.

本発明によると、複数の衣服の2次元画像を重合した重合画像に基づいて3次元画像への変換を行なうため、3次元画像の合成画像を低負荷で生成可能な仮想試着装置、仮想試着方法、および仮想試着プログラムを提供することができる。   According to the present invention, a three-dimensional image is converted into a three-dimensional image based on a superimposed image obtained by superimposing a two-dimensional image of a plurality of clothes. , And a virtual fitting program can be provided.

仮想試着システムによる処理の一例を説明するための模式図である。It is a schematic diagram for explaining an example of processing by a virtual fitting system. 仮想試着システムの概略構成の一例を示す図である。It is a figure showing an example of a schematic structure of a virtual fitting system. ユーザの端末装置の概略構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a schematic configuration of a user terminal device. サーバの概略構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a schematic configuration of a server. 複数の衣服の詳細情報を記憶する衣服データベースの一例を示す表である。It is a table | surface which shows an example of the clothing database which memorize | stores the detailed information of several clothing. 複数のユーザの情報を記憶するユーザデータベースの一例を示す表である。5 is a table illustrating an example of a user database that stores information on a plurality of users. 任意の衣服の距離画像の一例を示す。4 shows an example of a distance image of an arbitrary piece of clothing. 任意の衣服の法線画像の一例を示す。4 shows an example of a normal image of an arbitrary piece of clothing. 任意の衣服の色彩画像の一例を示す。1 shows an example of a color image of an arbitrary clothing. 着衣順序が最内側となる衣服の2次元画像を示す模式図である。It is a schematic diagram which shows the two-dimensional image of the clothing whose clothing order is the innermost. 最内側の衣服の次の着衣順序を持つ衣服の2次元画像を示す模式図である。It is a schematic diagram which shows the two-dimensional image of the clothing which has the next clothing order of the innermost clothing. インナーおよびアウターの2次元画像を重合した結果を示す模式図である。It is a schematic diagram which shows the result of having superimposed the two-dimensional image of an inner and an outer. 変換部による2次元画像の重合画像の3次元画像への変換を説明するための図である。FIG. 7 is a diagram for explaining conversion of a two-dimensional image into a three-dimensional image by superimposing a two-dimensional image by a converter. 本実施形態にかかる仮想試着システムによるユーザの新規会員登録処理の一連の流れの動作シーケンスの一例を示す図である。It is a figure showing an example of an operation sequence of a series of flows of new member registration processing of a user by a virtual fitting system concerning this embodiment. 本実施形態にかかる仮想試着システムによる複数の衣服の仮想試着画像の生成処理の一連の流れの動作シーケンスの一例を示す図である。It is a figure which shows an example of the operation | movement sequence of a series of flows of the production | generation process of the virtual fitting image of several clothes by the virtual fitting system concerning this embodiment. 複数の衣服の3次元画像を合成およびその結果を示す模式図である。It is a schematic diagram which synthesize | combines the three-dimensional image of several clothes and shows the result. 近接ポリゴンに強制的に近づける方法を用いて得られた合成画像を示す模式図である。It is a schematic diagram which shows the synthetic | combination image obtained using the method of forcibly approaching a proximity polygon. 第2実施形態に係り、着衣順序が最内側となる衣服の2次元画像(衣服の画像)を示す模式図である。FIG. 13 is a schematic diagram illustrating a two-dimensional image (an image of clothing) of clothing whose clothing order is the innermost according to the second embodiment. 第2実施形態に係り、着衣順序が最内側となる衣服の2次元画像(ベクター・ディスプレイスメント・マップ)を示す模式図である。FIG. 14 is a schematic diagram illustrating a two-dimensional image (a vector displacement map) of clothing in which a clothing order is the innermost according to the second embodiment. 第2実施形態に係り、着衣順序が最外側となる衣服の2次元画像(衣服の画像)を示す模式図である。FIG. 14 is a schematic diagram illustrating a two-dimensional image (an image of clothing) of clothing whose clothing order is the outermost according to the second embodiment. 第2実施形態に係り、着衣順序が最外側となる衣服の2次元画像(ベクター・ディスプレイスメント・マップ)を示す模式図である。FIG. 13 is a schematic diagram showing a two-dimensional image (a vector displacement map) of clothing in which the clothing order is the outermost according to the second embodiment. 着衣順序が最内側となる衣服に関して、ベクター・ディスプレイスメント・マップに衣服の画像のアルファチャンネルを適用した画像を示す模式図である。It is a schematic diagram which shows the image which applied the alpha channel of the image of the clothing to the vector displacement map regarding the clothing whose clothing order is the innermost. 着衣順序が最外側となる衣服に関して、ベクター・ディスプレイスメント・マップに衣服の画像のアルファチャンネルを適用した画像を示す模式図である。It is a schematic diagram which shows the image which applied the alpha channel of the image of the clothing to the vector displacement map regarding the clothing whose clothing order is the outermost. 最内側の衣服の画像と最外側の衣服の画像とを重合した画像(衣服の画像同士のアルファ合成)を示す模式図である。It is a schematic diagram which shows the image (alpha synthesis | combination of clothes images) which superimposed the image of the innermost clothing and the image of the outermost clothing. 最内側の衣服の画像と最外側の衣服の画像とを重合した画像(ベクター・ディスプレイスメント・マップ同士のアルファ合成)を示す模式図である。It is a schematic diagram which shows the image (alpha synthesis | combination of vector displacement maps) which superimposed the image of the innermost clothing and the image of the outermost clothing.

以下、本開示の一側面に係る仮想試着装置、仮想試着方法、および仮想試着プログラムについて図を参照しつつ説明する。但し、本開示の技術的範囲はそれらの実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。   Hereinafter, a virtual fitting apparatus, a virtual fitting method, and a virtual fitting program according to one aspect of the present disclosure will be described with reference to the drawings. However, it should be noted that the technical scope of the present disclosure is not limited to these embodiments, but extends to the inventions described in the claims and their equivalents.

[第1実施形態]
(仮想試着システム1による処理の概要)
図1は、仮想試着システム1による処理の一例を説明するための模式図である。
[First Embodiment]
(Overview of processing by virtual fitting system 1)
FIG. 1 is a schematic diagram for explaining an example of processing by the virtual fitting system 1.

仮想試着システム1は、複数のユーザの端末装置2を含み、これらの複数のユーザの端末装置2と相互に通信されるサーバ3を有する。サーバ3は、複数の衣服の情報を記憶する衣服データベース311および複数のユーザの情報を記憶するユーザデータベース312を備えている。なお、本発明において、仮想試着を求める複数のユーザのことをモデルと称する。   The virtual fitting system 1 includes a plurality of user terminal devices 2 and a server 3 that is mutually communicated with the plurality of user terminal devices 2. The server 3 includes a clothes database 311 that stores information on a plurality of clothes and a user database 312 that stores information on a plurality of users. In the present invention, a plurality of users who seek virtual fitting are referred to as models.

サーバ3は、複数のユーザの端末装置2から衣服データベース311に記憶されている複数の衣服の選択を受け付ける。更にサーバ3は、当該複数の衣服の着衣順序を併せて受け付ける。サーバ3は、複数のユーザの端末装置2から受け付けた情報およびユーザデータベース312に記憶される複数のユーザの情報に基づいて、複数のユーザのそれぞれから選択を受け付けた複数の衣服の試着画像を生成して、複数のユーザの端末装置2に当該試着画像を送信する。本発明は、サーバ3によって複数の衣服の試着画像を生成する技術に特徴を有する。   The server 3 receives selection of a plurality of clothes stored in the clothes database 311 from the terminal devices 2 of the plurality of users. Further, the server 3 also accepts the clothing order of the clothes. The server 3 generates, based on the information received from the terminal devices 2 of the plurality of users and the information of the plurality of users stored in the user database 312, a try-on image of a plurality of clothes selected from each of the plurality of users. Then, the fitting image is transmitted to the terminal devices 2 of a plurality of users. The present invention is characterized by a technique in which the server 3 generates a try-on image of a plurality of clothes.

なお、上述した図1の説明は、本発明の内容への理解を深めるための説明にすぎない。本発明は、具体的には、次に説明する各実施の形態において実施され、且つ、本発明の原則を実質的に超えずに、さまざまな変形例によって実施されてもよい。このような変形例はすべて、本発明および本明細書の開示範囲に含まれる。   Note that the description of FIG. 1 described above is merely for the purpose of deepening the understanding of the contents of the present invention. The present invention is specifically embodied in each embodiment described below, and may be embodied by various modifications without substantially exceeding the principles of the present invention. All such variations are within the scope of the present disclosure and the present disclosure.

(仮想試着システム1の概略構成)
図2は、仮想試着システム1の概略構成の一例を示す図である。
(Schematic configuration of virtual fitting system 1)
FIG. 2 is a diagram illustrating an example of a schematic configuration of the virtual fitting system 1.

仮想試着システム1は、複数のユーザの端末装置2、2、2・・・と、サーバ3と、を有する。以下では、複数のユーザの端末装置2を単にユーザの端末装置2と称する場合がある。ユーザの端末装置2、2、2・・・およびサーバ3は、例えば、インターネット4などの通信ネットワークを介してそれぞれ相互に接続される。また、ここではインターネット4が1つ例示されているが、インターネット4が複数のネットワークからなる場合は、それぞれのネットワーク間にゲートウェイ(図示しない)を適宜設けてもよい。サーバ3で実行されるプログラム(例えば、管理プログラム)とは、ハイパーテキスト転送プロトコル(HTTP)などの通信プロトコルを用いて通信を行う。   The virtual fitting system 1 includes terminal devices 2, 2, 2,... Of a plurality of users, and a server 3. Hereinafter, the terminal devices 2 of a plurality of users may be simply referred to as user terminal devices 2. The user's terminal devices 2, 2, 2,... And the server 3 are mutually connected via a communication network such as the Internet 4, for example. Although one Internet 4 is illustrated here, when the Internet 4 includes a plurality of networks, a gateway (not shown) may be appropriately provided between the networks. Communication with a program (for example, a management program) executed by the server 3 is performed using a communication protocol such as a hypertext transfer protocol (HTTP).

(ユーザの端末装置2の概略構成)
図3は、ユーザの端末装置2の概略構成の一例を示す図である。
(Schematic configuration of user terminal device 2)
FIG. 3 is a diagram illustrating an example of a schematic configuration of the terminal device 2 of the user.

端末装置2は、無線通信ネットワークへの接続、Webアクセスなどを実行する。そのために、端末装置2は、端末通信部211と、端末記憶部212と、端末操作部213と、端末表示部214と、端末処理部215とを備える。   The terminal device 2 executes connection to a wireless communication network, Web access, and the like. To this end, the terminal device 2 includes a terminal communication unit 211, a terminal storage unit 212, a terminal operation unit 213, a terminal display unit 214, and a terminal processing unit 215.

なお、端末装置2としては、多機能携帯電話(所謂「スマートフォン」)を想定するが、本発明はこれに限定されない。端末装置2は、本発明が適用可能であればよく、例えば、タブレットPCやノートPC、携帯電話(所謂「フィーチャーフォン」)、携帯情報端末(PDA)、携帯ゲーム機、携帯音楽プレイヤ、タブレット端末、などでもよい。   Note that the terminal device 2 is assumed to be a multifunctional mobile phone (a so-called “smart phone”), but the present invention is not limited to this. The terminal device 2 may be any one to which the present invention can be applied. For example, a tablet PC, a notebook PC, a mobile phone (so-called “feature phone”), a mobile information terminal (PDA), a mobile game machine, a mobile music player, a tablet terminal , Etc.

端末通信部211は、通信インターフェース回路を備え、端末装置2をインターネット4に接続する。端末通信部211は、ネットワークを介して端末処理部215から供給されたデータをサーバ3などに送信する。また、端末通信部211は、ネットワークを介してサーバ3などから受信したデータを端末処理部215に供給する。   The terminal communication unit 211 includes a communication interface circuit, and connects the terminal device 2 to the Internet 4. The terminal communication unit 211 transmits the data supplied from the terminal processing unit 215 to the server 3 or the like via a network. Further, the terminal communication unit 211 supplies data received from the server 3 or the like via the network to the terminal processing unit 215.

端末記憶部212は、例えば、半導体メモリ装置を備える。端末記憶部212は、端末処理部215での処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データなどを記憶する。例えば、端末記憶部212は、ドライバプログラムとして、端末操作部213を制御する入力デバイスドライバプログラム、端末表示部214を制御する出力デバイスドライバプログラムなどを記憶する。また、端末記憶部212は、アプリケーションプログラムとして、店舗関係者が端末操作部213を操作することによって入力された検索条件、特徴情報および特徴画像などをサーバ3に登録するための登録画面を表示する閲覧プログラムなどを記憶する。各種プログラムは、例えばCD−ROM、DVD−ROMなどのコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラムなどを用いて端末記憶部212にインストールされてもよい。また、端末記憶部212は、所定の処理に係る一時的なデータを一時的に記憶してもよい。   The terminal storage unit 212 includes, for example, a semiconductor memory device. The terminal storage unit 212 stores an operating system program, a driver program, an application program, data, and the like used for processing in the terminal processing unit 215. For example, the terminal storage unit 212 stores, as driver programs, an input device driver program for controlling the terminal operation unit 213, an output device driver program for controlling the terminal display unit 214, and the like. In addition, the terminal storage unit 212 displays, as an application program, a registration screen for registering search conditions, feature information, feature images, and the like input by a store-related person operating the terminal operation unit 213 in the server 3. The browsing program is stored. The various programs may be installed in the terminal storage unit 212 from a computer-readable portable recording medium such as a CD-ROM or a DVD-ROM using a known setup program or the like. Further, the terminal storage unit 212 may temporarily store temporary data related to a predetermined process.

端末操作部213は、端末装置2の操作が可能であればどのようなデバイスでもよく、例えば、タッチパネルであるが、マウス、またはキーボタンなどを端末装置2の外部に接続してもよい。ユーザは、端末操作部213を用いて、情報の選択や解除、文字や数字などを入力することができる。端末操作部213は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、発生した信号は、端末処理部215に送信される。   The terminal operation unit 213 may be any device as long as it can operate the terminal device 2. For example, the terminal operation unit 213 may be a touch panel, but a mouse, key buttons, or the like may be connected to the outside of the terminal device 2. The user can use the terminal operation unit 213 to select and release information, and to input characters and numbers. When operated by the user, the terminal operation unit 213 generates a signal corresponding to the operation. Then, the generated signal is transmitted to the terminal processing unit 215.

端末表示部214も、映像や画像などの表示が可能であればどのようなデバイスでもよく、例えば、液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイなどである。端末表示部214は、端末処理部215から供給された映像データに応じた映像や、画像データに応じた画像などを表示する。   The terminal display unit 214 may be any device as long as it can display a video or an image, and is, for example, a liquid crystal display or an organic EL (Electro-Luminescence) display. The terminal display unit 214 displays an image corresponding to the video data supplied from the terminal processing unit 215, an image corresponding to the image data, and the like.

端末処理部215は、一または複数個のプロセッサおよびその周辺回路を備える。端末処理部215は、端末装置2の全体的な動作を統括的に制御するものであり、例えば、CPUである。端末処理部215は、端末装置2の各種処理が端末記憶部212に記憶されているプログラムや端末操作部213の操作などに基づいて適切な手順で実行されるように、端末通信部211や端末表示部214などの動作を制御する。端末処理部215は、端末記憶部212に記憶されているプログラム(オペレーティングシステムプログラムやドライバプログラム、アプリケーションプログラムなど)に基づいて処理を実行する。また、端末処理部215は、複数のプログラム(アプリケーションプログラムなど)を並列に実行することができる。   The terminal processing unit 215 includes one or more processors and their peripheral circuits. The terminal processing unit 215 controls the overall operation of the terminal device 2 as a whole, and is, for example, a CPU. The terminal processing unit 215 and the terminal communication unit 211 and the terminal communication unit 211 are configured to execute various processes of the terminal device 2 in an appropriate procedure based on a program stored in the terminal storage unit 212, an operation of the terminal operation unit 213, and the like. The operation of the display unit 214 and the like is controlled. The terminal processing unit 215 executes a process based on a program (such as an operating system program, a driver program, or an application program) stored in the terminal storage unit 212. In addition, the terminal processing unit 215 can execute a plurality of programs (such as application programs) in parallel.

端末処理部215は、端末装置2の外部から受信した画面表示情報をユーザに閲覧可能な画面表示として処理をする機能や、ユーザからの端末操作部213の操作内容に基づく処理を端末装置2の外部に送信可能な信号に変換して端末通信部211に送る機能を備える。これらの機能は、端末処理部215が備えるプロセッサで実行されるプログラムにより実現される機能モジュールである。あるいは、これらの各部は、独立した集積回路、マイクロプロセッサ、またはファームウェアとして端末装置2に実装されてもよい。   The terminal processing unit 215 performs a function of processing screen display information received from outside the terminal device 2 as a screen display that can be viewed by a user, and performs a process based on the operation content of the terminal operation unit 213 from the user. It has a function of converting the signal into a signal that can be transmitted to the outside and sending the signal to the terminal communication unit 211. These functions are function modules realized by a program executed by a processor included in the terminal processing unit 215. Alternatively, each of these units may be implemented in the terminal device 2 as an independent integrated circuit, microprocessor, or firmware.

(サーバ3の概略構成)
図4は、サーバ3の概略構成の一例を示す図である。
(Schematic configuration of server 3)
FIG. 4 is a diagram illustrating an example of a schematic configuration of the server 3.

サーバ3は、複数の衣服の情報を記憶する衣服データベース311および複数のユーザの情報を記憶するユーザデータベース312を含むサーバ記憶部313を備える。サーバ3は、複数のユーザの端末装置2からの検索条件に応じて衣服データベース311から所望の衣服の検索結果をユーザの端末装置2に送信する。また、サーバ3は、複数のユーザの端末装置2から選択された複数の衣服の試着画像の生成要求を受信すると、ユーザデータベース312に記憶されているユーザの体型情報および衣服データベース311に記憶される2次元画像を基に選択された複数の衣服の仮想試着画像としての3次元画像を複数のユーザの端末装置2に送信する。以上のような機能を実現するために、サーバ3は、サーバ記憶部313の他に、受付部314、生成部315、および変換部316を含むサーバ処理部317およびサーバ通信部318を更に備える。   The server 3 includes a server storage unit 313 including a clothes database 311 for storing information on a plurality of clothes and a user database 312 for storing information on a plurality of users. The server 3 transmits a search result of desired clothes from the clothes database 311 to the user terminal devices 2 according to the search conditions from the plurality of user terminal devices 2. Further, when the server 3 receives a request for generating a plurality of clothing try-on images selected from the terminal devices 2 of the plurality of users, the server 3 stores the user's body type information stored in the user database 312 and the clothing database 311. A three-dimensional image as a virtual fitting image of a plurality of clothes selected based on the two-dimensional image is transmitted to the terminal devices 2 of a plurality of users. In order to realize the above functions, the server 3 further includes a server processing unit 317 including a reception unit 314, a generation unit 315, and a conversion unit 316, and a server communication unit 318, in addition to the server storage unit 313.

衣服データベース311は、複数の衣服識別情報に対応付けて、衣服の販売元情報、メーカー情報、製造サイズ情報、衣服カテゴリ情報、販売価格情報、販売可能時期情報、などを記憶している。更に衣服データベース311は、複数の衣服識別情報ごとに該当する衣服の2次元画像を記憶している。   The clothing database 311 stores clothing selling source information, maker information, manufacturing size information, clothing category information, selling price information, sellable time information, and the like in association with a plurality of pieces of clothing identification information. Further, the clothing database 311 stores a two-dimensional image of the clothing corresponding to each piece of clothing identification information.

ユーザデータベース312は、複数のユーザのユーザ識別情報(ユーザID)に対応付けて、ユーザのメールアドレス、ユーザの性別、ユーザの年代、などが記憶されている。更にユーザデータベース312は、ユーザの体型情報を記憶している。   The user database 312 stores user email addresses, user genders, user ages, and the like in association with user identification information (user IDs) of a plurality of users. Further, the user database 312 stores the body type information of the user.

サーバ記憶部313は、例えば、半導体メモリ、磁気ディスク装置および光ディスク装置の内の少なくとも一つを有し、バスを介してサーバ3と接続される。サーバ記憶部313は、サーバ処理部317による処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データなどを記憶する。例えば、サーバ記憶部313は、ドライバプログラムとして、サーバ通信部318を制御する通信デバイスドライバプログラムなどを記憶する。コンピュータプログラムは、例えばCD−ROM、DVD−ROMなどのコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラムなどを用いてサーバ記憶部313にインストールされてもよい。また、サーバ記憶部313は、衣服データベース311およびユーザデータベース312などを記憶する。   The server storage unit 313 has, for example, at least one of a semiconductor memory, a magnetic disk device, and an optical disk device, and is connected to the server 3 via a bus. The server storage unit 313 stores a driver program, an operating system program, an application program, data, and the like used for processing by the server processing unit 317. For example, the server storage unit 313 stores a communication device driver program for controlling the server communication unit 318 as a driver program. The computer program may be installed in the server storage unit 313 from a computer-readable portable recording medium such as a CD-ROM or a DVD-ROM, using a known setup program or the like. The server storage unit 313 stores a clothing database 311 and a user database 312.

また、サーバ記憶部313は、複数のユーザの端末装置2から選択を受け付けた衣服の衣服識別情報やユーザ識別情報、および2次元画像を重合した重合画像や当該重合画像を3次元画像(仮想試着画像)に変換した画像などを一時的に記憶する一時記憶部としても機能する。   In addition, the server storage unit 313 stores the clothing identification information and the user identification information of the clothing whose selection has been received from the terminal devices 2 of the plurality of users, a superimposed image obtained by superimposing the two-dimensional image, and a three-dimensional image (virtual fitting). The image also functions as a temporary storage unit for temporarily storing an image converted into an image.

なお、サーバ記憶部313は、一つの記憶領域からなってもよく、複数の記憶領域からなってもよい。更に、サーバ記憶部313は、サーバ3の内部に存在しない場合があってもよい。例えば、クラウドサーバなどがその一例である。   Note that the server storage unit 313 may be formed of one storage area, or may be formed of a plurality of storage areas. Further, the server storage unit 313 may not exist inside the server 3 in some cases. For example, a cloud server is one example.

サーバ処理部317は、受付部314、生成部315、および変換部316を含む。サーバ処理部317による機能は、サーバ処理部317が備えるプロセッサで実行されるプログラムにより実現される機能モジュールである。あるいは、これらの各部は、独立した集積回路、マイクロプロセッサ、またはファームウェアとしてサーバ3に実装されてもよい。なお、サーバ処理部317の処理内容は後述する。また、サーバ処理部317の構成要素の切り分けは、一例であって、どの構成要素がどの処理を行うかは、本実施形態の記載に限定されない。   Server processing unit 317 includes a receiving unit 314, a generating unit 315, and a converting unit 316. The function of the server processing unit 317 is a functional module realized by a program executed by a processor included in the server processing unit 317. Alternatively, each of these units may be implemented in the server 3 as an independent integrated circuit, microprocessor, or firmware. The processing contents of the server processing unit 317 will be described later. In addition, the separation of the components of the server processing unit 317 is an example, and which component performs which processing is not limited to the description of the present embodiment.

受付部314は、後述するサーバ通信部318を介して複数のユーザの端末装置2から受信した様々な情報を一括に受け付ける。具体的に受付部314は、ユーザからの新規のユーザ登録を受け付ける。この際、サーバ3は、ユーザデータベース312に記憶されている情報を事前にユーザに登録するようユーザに促すとよい。例えば、受付部314は、ユーザの頭部画像やユーザの体型情報を受け付ける。なお、頭部画像は、ユーザの端末装置2によって3Dスキャンされた3次元画像であってもよく、ユーザの端末装置2によって撮像された2次元画像であってもよい。更に、ユーザは、ユーザ自身の頭部画像の代わりに任意の頭部画像をユーザデータベース312に記憶する構成としてもよい。なお、この画像はアニメーションなどであってもよい。そして、ユーザ登録後に受付部314は、複数のユーザの端末装置2から衣服データベース311に記憶されている複数の衣服の検索条件を受け付けたり、仮想試着のために衣服データベース311に記憶されている複数の衣服から任意の衣服の選択入力および当該衣服の着衣順序を受け付けたりする。更に、受付部314は、仮想試着を可視化した試着画像を生成するための要求を受け付ける。本発明において、受付部314は、モデル情報受付部および衣服情報受付部に相当することができる。なお、サーバ記憶部313は、受付部314が受け付けた各種情報を衣服データベース311、ユーザデータベース312、および一時保存領域に記憶する。どの情報をそれぞれのデータベースや記憶領域が記憶するかは、本発明において任意であり、特に本発明を限定する事項ではない。   The receiving unit 314 collectively receives various information received from the terminal devices 2 of a plurality of users via the server communication unit 318 described below. Specifically, the receiving unit 314 receives a new user registration from the user. At this time, the server 3 may prompt the user to register the information stored in the user database 312 in advance. For example, the receiving unit 314 receives a user's head image and user's body type information. The head image may be a three-dimensional image that is 3D scanned by the user terminal device 2 or a two-dimensional image that is captured by the user terminal device 2. Further, the user may store an arbitrary head image in the user database 312 instead of the user's own head image. This image may be an animation or the like. Then, after the user registration, the reception unit 314 receives search conditions for a plurality of clothes stored in the clothes database 311 from the terminal devices 2 of the plurality of users, or stores the plurality of search conditions stored in the clothes database 311 for virtual fitting. And input of the selection of an arbitrary garment from the garments and the order of wearing the garments. Further, the receiving unit 314 receives a request for generating a fitting image in which virtual fitting is visualized. In the present invention, the receiving unit 314 can correspond to a model information receiving unit and a clothing information receiving unit. The server storage unit 313 stores various information received by the reception unit 314 in the clothing database 311, the user database 312, and the temporary storage area. Which information is stored in each database or storage area is arbitrary in the present invention, and is not particularly limited to the present invention.

まず、生成部315は、複数のユーザの端末装置2から受け付けた衣服データベース311から任意の衣服を選択するための検索条件に基づいて衣服情報を抽出する。生成部315は、複数のユーザの端末装置2から選択入力された複数の衣服に対応する2次元画像を衣服データベース311から抽出して、併せて複数のユーザの端末装置2から受け付けた着衣順序に基づいて2次元画像を重合した重合画像を生成する。生成部315の生成処理については、詳細を後述する。なお、生成部315は、本発明における生成処理部に相当することができる。なお、生成部315は、複数の部位の衣服同士の着衣順序を考慮することとしてもよい。すなわち、トップスをボトムスの中に入れた着衣方法とするかトップスがボトムスの外に出た着衣方法とするかをユーザが選択できるようになる。この場合、受付部314が、同一部位における衣服の着衣順序の他に、異なる部位においける衣服同士の着衣順序を受け付けてもよい。   First, the generation unit 315 extracts clothing information based on a search condition for selecting an arbitrary clothing from the clothing database 311 received from the terminal devices 2 of a plurality of users. The generation unit 315 extracts, from the clothing database 311, two-dimensional images corresponding to the plurality of clothes selected and input from the plurality of user terminal devices 2, and also combines the two-dimensional images into the clothing order received from the plurality of user terminal devices 2. Based on this, a two-dimensional image is superimposed to generate a superimposed image. The generation process of the generation unit 315 will be described later in detail. Note that the generation unit 315 can correspond to the generation processing unit in the present invention. Note that the generation unit 315 may consider the order of clothes between clothes of a plurality of parts. That is, the user can select whether to wear the tops inside the bottoms or to wear the tops outside the bottoms. In this case, the reception unit 314 may receive the order of clothing between different parts in addition to the order of clothing of the same part.

変換部316は、受付部314が受け付けたユーザの体型情報を基に共通の中間ポリゴンモデルを補正して頭部画像を合成することでユーザの仮想人体モデルを生成し、当該仮想人体モデルに、生成部315が生成した重合画像を更に重合することで重合画像を3次元画像(すなわち仮想試着画像)に変換する。ここで、ユーザの頭部画像が3次元画像である場合、変換部316は、頭部画像を合成することで実際にユーザが衣服を試着してるような仮想試着画像を生成することができる。一方、ユーザの頭部画像が2次元画像である場合、変換部316は、衣服の2次元画像と共にユーザの頭部の2次元画像を3次元画像に変換する必要がある。すなわち、サーバ3は、2次元画像の段階で生成部315が複数の衣服の画像を重合し、重合画像を3次元画像に変換するため、複数の衣服画像の重ね着結果である3次元画像を生成することができる。なお、変換部316は、本発明における変換処理部に相当することができる。   The conversion unit 316 generates a virtual human body model of the user by correcting the common intermediate polygon model based on the body type information of the user received by the reception unit 314 and combining the head image, and generates a virtual human body model of the user. The superimposed image is converted into a three-dimensional image (that is, a virtual fitting image) by further superimposing the superimposed image generated by the generation unit 315. Here, when the user's head image is a three-dimensional image, the conversion unit 316 can generate a virtual fitting image in which the user is actually trying on clothes by combining the head images. On the other hand, when the user's head image is a two-dimensional image, the conversion unit 316 needs to convert the two-dimensional image of the user's head into a three-dimensional image together with the two-dimensional image of the clothing. That is, since the generation unit 315 superimposes a plurality of clothing images at the stage of a two-dimensional image and converts the superimposed image into a three-dimensional image, the server 3 generates a three-dimensional image that is a result of overlapping a plurality of clothing images. Can be generated. Note that the conversion unit 316 can correspond to the conversion processing unit in the present invention.

サーバ通信部318は、サーバ3をインターネット4に接続するための通信インターフェース回路を有する。サーバ通信部318は、複数のユーザの端末装置2から検索要求や試着画像の生成要求を受付部314に送信する。また、サーバ通信部318は、生成部315が衣服データベース311から抽出した衣服画像を複数のユーザの端末装置2に送信したり生成部315および変換部316が生成した3次元画像を複数のユーザの端末装置2に送信したりする。なお、サーバ通信部318は、本発明における送信部に相当することができる。   The server communication unit 318 has a communication interface circuit for connecting the server 3 to the Internet 4. The server communication unit 318 transmits a search request and a request for generating a fitting image from the terminal devices 2 of the plurality of users to the reception unit 314. In addition, the server communication unit 318 transmits the clothing image extracted from the clothing database 311 by the generation unit 315 to the terminal devices 2 of a plurality of users, or outputs the three-dimensional image generated by the generation unit 315 and the conversion unit 316 to the plurality of users. Or to the terminal device 2. Note that the server communication unit 318 can correspond to the transmission unit in the present invention.

(テーブルのデータ構造)
図5および6は、衣服データベース311およびユーザデータベース312の構造の一例を示す図である。
(Table data structure)
5 and 6 are diagrams illustrating an example of the structure of the clothing database 311 and the user database 312.

図5は、複数の衣服の詳細情報を記憶する衣服データベース311の一例を示す表である。衣服データベース311は、複数の衣服識別情報(衣服ID)に対応付けて、衣服のメーカー情報、サイズ情報、衣服カテゴリ情報、販売価格情報、販売可能時期情報、などを記憶している。更に衣服データベース311は、複数の衣服識別情報ごとに該当する衣服の2次元画像を記憶している。この衣服の2次元画像は、後述する通り、距離画像、法線画像、および色彩画像を含んでいる。なお、図5に示す衣服データベース311においては、2次元画像を呼び出すためのパスのみが記憶されている。衣服の2次元画像は、衣服のパターンから作成されてもよく、完成した衣服の3Dスキャンなどに基づいて作成されてもよい。本実施形態において2次元画像は、3Dスキャンされた画像を多種の画像またはマップとして衣服データベース311に記憶されている。なお、3Dスキャンされた画像を記憶する衣服データベース311は、本発明における画像情報データベースに相当することができる。   FIG. 5 is a table illustrating an example of a clothing database 311 that stores detailed information of a plurality of clothing. The clothing database 311 stores clothing manufacturer information, size information, clothing category information, selling price information, available time information, and the like in association with a plurality of pieces of clothing identification information (clothing ID). Further, the clothing database 311 stores a two-dimensional image of the clothing corresponding to each piece of clothing identification information. The two-dimensional image of the clothes includes a distance image, a normal image, and a color image, as described later. In the clothing database 311 shown in FIG. 5, only a path for calling a two-dimensional image is stored. The two-dimensional image of the clothing may be created from a pattern of the clothing, or may be created based on a 3D scan of the completed clothing. In the present embodiment, the two-dimensional image is stored in the clothing database 311 as a variety of images or maps using a 3D scanned image. Note that the clothing database 311 that stores 3D scanned images can correspond to the image information database in the present invention.

図5の通り、同一の衣服についてサイズ違いは、衣服識別番号として枝番号を付与することで衣服データベース311が管理する。これによって、ユーザは、同一デザインの衣服についてサイズ違いの商品を検索し易くなる。また、メーカー、カテゴリ、および色は、ユーザの検索の利便性のために入力されている情報である。販売価格および、販売可能時期としての販売開始時期および販売終了時期は、仮想試着システム1が、衣服の販売を併せて行なう場合に必要な情報となる。   As shown in FIG. 5, the clothing database 311 manages differences in size of the same clothing by assigning branch numbers as clothing identification numbers. This makes it easier for the user to search for products of different sizes for clothes of the same design. The maker, category, and color are information input for the convenience of the user's search. The selling price and the selling start time and the selling end time as the sellable time are information necessary when the virtual fitting system 1 also sells clothes.

図7は、任意の衣服の距離画像の一例を示す。なお、距離画像は、仮想試着システム1が事前に準備してもよく、仮想試着システム1の外部で作成されてもよい。距離画像は、任意の中間ポリゴンモデルを用意し、当該中間ポリゴンモデルと当該任意の衣服のポリゴンモデルとの差異を取得することで各ピクセルにおける距離(ディスプレイスメント)を求めている。距離画像は、この各ピクセルにおける距離を2次元画像化(ベイク)することで得られる。なお、中間ポリゴンモデルには、UVマップ(ポリゴンモデルを平面に展開する割当情報)が設定してある。   FIG. 7 shows an example of a distance image of an arbitrary piece of clothing. The distance image may be prepared in advance by the virtual fitting system 1 or may be created outside the virtual fitting system 1. For the distance image, an arbitrary intermediate polygon model is prepared, and the distance (displacement) at each pixel is obtained by acquiring a difference between the intermediate polygon model and the arbitrary clothing polygon model. The distance image is obtained by two-dimensionally imaging (baking) the distance at each pixel. It should be noted that a UV map (assignment information for developing the polygon model into a plane) is set in the intermediate polygon model.

図8は、任意の衣服の法線画像の一例を示す。なお、法線画像は、仮想試着システム1が事前に準備してもよく、仮想試着システム1の外部で作成されてもよい。法線画像は、当該任意の衣服のポリゴンモデルの各面の方向(法線)を示す画像である。法線画像は、この各ピクセルにおける法線方向を2次元画像化(ベイク)することで得られる。法線画像は、画像同様に共通の中間ポリゴンモデルと衣服のポリゴンモデルとを重ねることで衣服のポリゴンモデルの各面の方向を得る構成としてもよい。   FIG. 8 shows an example of a normal image of an arbitrary piece of clothing. The normal image may be prepared in advance by the virtual fitting system 1 or may be created outside the virtual fitting system 1. The normal image is an image indicating the direction (normal) of each surface of the polygon model of the arbitrary clothing. The normal image is obtained by two-dimensionally imaging (baking) the normal direction of each pixel. The normal image may be configured such that the common intermediate polygon model and the polygon model of the clothing are overlapped with each other to obtain the directions of the respective surfaces of the polygon model of the clothing.

図9は、任意の衣服の色彩画像の一例を示す。なお、色彩画像は、仮想試着システム1が事前に準備してもよく、仮想試着システム1の外部で作成されてもよい。色彩画像は、当該任意の衣服を2次元画像化(ベイク)した際に各ピクセルにおける色彩を得ることで得られる。   FIG. 9 shows an example of a color image of an arbitrary piece of clothing. The color image may be prepared in advance by the virtual fitting system 1 or may be created outside the virtual fitting system 1. The color image is obtained by obtaining the color of each pixel when the arbitrary clothing is converted into a two-dimensional image (baked).

これらの距離画像、法線画像、および色彩画像を合わせて任意の衣服の2次元画像と呼ぶ。複数の異なる衣服に共通の中間ポリゴンモデルを用いることで、共通の基準を持った衣服の2次元画像を衣服データベース311が記憶することができる。すなわち、生成部315は、共通の中間ポリゴンモデルを用いた複数の衣服の2次元画像の重合を行なうため、容易に変換部316が3次元画像を当該重合画像から変換することができる。なお、衣服は通常複数のサイズが製造されているが、本発明では、共通の中間ポリゴンモデルを複数のサイズにおいても共通で使用して2次元画像を得ることが好ましい。すなわち、ユーザが異なるサイズの衣服を複数試着した際の仮想試着画像を得たい場合、異なる中間ポリゴンモデルを基に得た2次元画像を重合することになる。その場合、複数の2次元画像の距離画像がそれぞれ異なる基準点を有してしまうため、複数の衣服の距離が反転(入れ替わる)してしまう可能性がある。   The distance image, the normal image, and the color image are collectively referred to as a two-dimensional image of any clothing. By using a common intermediate polygon model for a plurality of different clothes, the clothes database 311 can store a two-dimensional image of the clothes having a common reference. That is, since the generation unit 315 superimposes a two-dimensional image of a plurality of clothes using a common intermediate polygon model, the conversion unit 316 can easily convert the three-dimensional image from the superimposed image. Note that clothes are usually manufactured in a plurality of sizes, but in the present invention, it is preferable to obtain a two-dimensional image by using a common intermediate polygon model in common in a plurality of sizes. That is, when the user wants to obtain a virtual fitting image when a plurality of clothes of different sizes are tried on, two-dimensional images obtained based on different intermediate polygon models are superimposed. In this case, since the distance images of the two-dimensional images have different reference points, the distances of the clothes may be reversed (swapped).

図6は、複数のユーザの情報を記憶するユーザデータベース312の一例を示す表である。ユーザデータベース312は、複数のユーザのユーザ識別情報(ユーザID)に対応付けて、ユーザのメールアドレス、ユーザの性別、ユーザの年代、などが記憶されている。更にユーザデータベース312は、ユーザの体型情報を記憶している。ユーザの体型情報は、ユーザによって入力されるものであり、身長や体重などの情報である。ユーザの情報は、ユーザにより適宜修正することもでき、ユーザが入力を拒否する項目については、データを記憶しない項目もあってもよい。正確な仮想試着画像を得るために、身長および体重については、必須とすることが好ましい。   FIG. 6 is a table illustrating an example of the user database 312 that stores information on a plurality of users. The user database 312 stores user email addresses, user genders, user ages, and the like in association with user identification information (user IDs) of a plurality of users. Further, the user database 312 stores the body type information of the user. The user's body type information is input by the user, and is information such as height and weight. The information of the user can be appropriately modified by the user, and some items for which the user rejects input may not store data. In order to obtain an accurate virtual fitting image, the height and weight are preferably required.

また、ユーザデータベース312は、複数のユーザの体型情報を基に衣服同様に距離画像および法線画像として2次元画像化した2次元画像を更に記憶している。なお、ここで体型情報は、身長および体重といった簡易な情報のみを含むこととしてもよいが、胸囲、腕長、太もも周囲長、などの詳細な体型情報を含んでもよい。   In addition, the user database 312 further stores a two-dimensional image that is converted into a two-dimensional image as a distance image and a normal image in the same manner as clothing based on body type information of a plurality of users. Here, the body type information may include only simple information such as height and weight, but may also include detailed body type information such as chest circumference, arm length, and thigh circumference.

(生成部315による2次元画像の重合処理)
図10〜12は、任意の複数の衣服の重合処理を説明するための図である。図10は、着衣順序が最内側となる衣服の2次元画像を示す模式図である。最内側の衣服とは、インナーである。また、図11が最内側の衣服の次の着衣順序を持つ衣服の2次元画像を示す模式図である。ここでは、アウターと呼ぶ。そして、図12が、インナー(図10)およびアウター(図12)の2次元画像を重合した結果を示す模式図である。
(Polymerization process of two-dimensional image by generation unit 315)
10 to 12 are diagrams for explaining a polymerization process of an arbitrary plurality of clothes. FIG. 10 is a schematic diagram illustrating a two-dimensional image of clothing in which the clothing order is the innermost. The innermost garment is the inner. FIG. 11 is a schematic diagram showing a two-dimensional image of clothing having the next clothing order of the innermost clothing. Here, it is called an outer. FIG. 12 is a schematic diagram showing the result of superimposing the two-dimensional images of the inner (FIG. 10) and the outer (FIG. 12).

生成部315は、ユーザによって選択された複数の衣服の着衣順序に基づいて最内側の衣服の2次元画像を衣服データベース311から抽出して、次に着衣順序の衣服の2次元画像を衣服データベース311から抽出して重合する。すなわち、生成部315は、同一ピクセル(位置)におけるそれぞれの距離画像に含まれる距離の値を法線画像に含まれる当該ピクセルの方向に加算する。距離の累積値が、そのピクセルにおける最外側の衣服の位置となる。この累積値をそれぞれのピクセルにおいて、距離方向を持たせることで、各ピクセルのベクトルが定まる。なお、距離画像の重合は、法線画像以外に、色彩画像の透過値をファクターとして使用することで、より正確な重合画像を得ることができる。そして、生成部315は、各ピクセルにおいて最外側の衣服の色彩を当該ピクセルにおける色彩として決定する。   The generation unit 315 extracts the two-dimensional image of the innermost clothing from the clothing database 311 based on the clothing order of the plurality of clothings selected by the user, and then extracts the two-dimensional image of the clothing in the clothing order from the clothing database 311. And then polymerized. That is, the generation unit 315 adds the value of the distance included in each distance image at the same pixel (position) in the direction of the pixel included in the normal image. The cumulative value of the distance is the position of the outermost garment at that pixel. By giving this accumulated value a distance direction in each pixel, a vector of each pixel is determined. In addition, in addition to the normal image, a more accurate superimposed image can be obtained by using the transmission value of the color image as a factor. Then, the generation unit 315 determines the color of the outermost clothing in each pixel as the color in the pixel.

すなわち、生成部315は、複数の衣服を共通の中間ポリゴンモデルを用いて生成した2次元画像を重合することで複数の衣服の重ね着を2次元画像として表現した重合画像を生成することができる。生成部315は、共通の中間ポリゴンモデルを用いて画像処理を行なうことで、衣服の種類やサイズを問わず様々な衣服も同一の座標に対応する情報が乗っていることを保証することができる。   In other words, the generation unit 315 can generate a superimposed image expressing a plurality of clothes as a two-dimensional image by superimposing two-dimensional images generated by using a common intermediate polygon model on a plurality of clothes. . By performing image processing using a common intermediate polygon model, the generation unit 315 can guarantee that information corresponding to the same coordinates is loaded on various clothes regardless of the type and size of the clothes. .

(変換部316による3次元画像への変換処理)
図13は、変換部316による2次元画像の重合画像の3次元画像への変換を説明するための図である。変換部316は、生成部315が生成した重合画像を共通の中間ポリゴンモデルに割り当てることで、3次元画像に変換する。更に、変換部316は、複数のユーザの端末装置2から受け付けたユーザの頭部画像を合成することでユーザが複数の衣服を試着してる状態を可視するための仮想試着画像を生成することができる。なお、図13では、ユーザの頭部画像の合成を割愛している。
(Conversion process to three-dimensional image by conversion unit 316)
FIG. 13 is a diagram for explaining the conversion of the superimposed image of the two-dimensional image into the three-dimensional image by the conversion unit 316. The conversion unit 316 converts the superimposed image generated by the generation unit 315 into a three-dimensional image by assigning it to a common intermediate polygon model. Further, the conversion unit 316 can generate a virtual fitting image for visualizing a state where the user is trying on a plurality of clothes by synthesizing the head images of the users received from the terminal devices 2 of the plurality of users. it can. In FIG. 13, the composition of the user's head image is omitted.

複数の衣服の2次元画像を得るために使用した共通の中間ポリゴンモデルは、標準的な体型を基準としていることから、個々のユーザの体型に、より近い試着状態の試着画像を得るために、変換部316は、共通の中間ポリゴンモデルの法線方向の距離の値をユーザデータベース312に含まれるユーザの体型情報を基に補正する。具体的に変換部316は、ユーザの体重が任意の身長において標準的な体型よりも小さい場合は、法線方向の距離を標準体重との差異に基づいて減算する。個々のピクセルの減算度合いは、予め身長(身長のレンジ)ごとに予め定められており、体重の差異によって体型に影響が出やすい身体の部位を実験的または統計的にマップのような情報でサーバ記憶部313が予め記憶している。ユーザの体重が任意の身長において標準的な体型よりも大きい場合の変換部316の処理は、標準的な体型よりも小さい場合の処理の逆となるため、詳細な説明は割愛する。   Since the common intermediate polygon model used to obtain a two-dimensional image of a plurality of clothes is based on a standard body shape, in order to obtain a fitting image in a fitting state closer to the body shape of each user, The conversion unit 316 corrects the value of the distance in the normal direction of the common intermediate polygon model based on the body type information of the user included in the user database 312. Specifically, when the weight of the user is smaller than the standard body shape at an arbitrary height, the conversion unit 316 subtracts the distance in the normal direction based on the difference from the standard body weight. The degree of subtraction of each pixel is determined in advance for each height (range of height), and a part of the body that is likely to have an effect on the body shape due to a difference in weight is experimentally or statistically used as a map-like information. The storage unit 313 stores the information in advance. The process performed by the conversion unit 316 when the user's weight is larger than the standard body shape at an arbitrary height is the reverse of the process when the user's weight is smaller than the standard body shape, and a detailed description thereof will be omitted.

ユーザによって、詳細な体型情報が入力されている場合も、任意のポリゴンモデルを基準に標準より小さいか大きいかを考慮して法線方向の距離の値を補正すればよい。なお、複数の衣服の2次元画像を得るために使用した共通の中間ポリゴンモデルは、男性または女性における標準的な身長を基準としているため、ユーザの身長と標準的な身長との差異に応じて衣服の丈(衣服の最下位部の位置)が変化する。   Even when detailed body shape information is input by the user, the value of the distance in the normal direction may be corrected based on an arbitrary polygon model in consideration of whether it is smaller or larger than the standard. Note that the common intermediate polygon model used to obtain a two-dimensional image of a plurality of clothes is based on the standard height of a man or a woman, so that the model differs depending on the difference between the user's height and the standard height. The length of the clothes (the position of the lowest part of the clothes) changes.

(新規会員登録処理)
図14は、本実施形態にかかる仮想試着システム1によるユーザの新規会員登録処理の一連の流れの動作シーケンスの一例を示す図である。すなわち、ユーザが新規に個人情報を登録して、仮想試着システム1を使用する際の処理となる。
(New member registration process)
FIG. 14 is a diagram showing an example of an operation sequence of a series of flows of a new member registration process of the user by the virtual fitting system 1 according to the present embodiment. That is, the process is performed when the user newly registers personal information and uses the virtual fitting system 1.

以下に説明する動作シーケンスは、予めサーバ記憶部313に記憶されているプログラムに基づいて、主にサーバ処理部317により、サーバ3の各要素と協働して実行される。更に、以下に説明する動作シーケンスは、予めユーザの端末装置2の端末記憶部212に記憶されているプログラムに基づいて、主にユーザの端末装置2の端末処理部215により、端末装置2の各要素と協働して実行される。また、以下に説明する動作シーケンスにおいて、サーバ3は、サーバ通信部318を介して端末装置2と各種の情報を送受信する。   The operation sequence described below is mainly executed by the server processing unit 317 in cooperation with each element of the server 3 based on a program stored in the server storage unit 313 in advance. Furthermore, the operation sequence described below is mainly performed by the terminal processing unit 215 of the user terminal device 2 based on a program stored in the terminal storage unit 212 of the user terminal device 2 in advance. Performed in cooperation with the element. In the operation sequence described below, the server 3 transmits and receives various information to and from the terminal device 2 via the server communication unit 318.

本処理は、ユーザが新規ログインユーザとなるために「新規会員登録ボタン」などを押下した場合に行なわれる。まず、サーバ3は、ユーザのメールアドレスの入力がされたか否かを判断する(ステップS101)。このステップにおいて、確認用に重複してメールアドレスをユーザに入力させるようにしてもよい。サーバは、ユーザのメールアドレスの入力が確認できない場合(ステップS101がNO)、ステップS101を繰り返す。   This process is performed when the user presses a “new member registration button” or the like to become a new login user. First, the server 3 determines whether the user's mail address has been input (step S101). In this step, the user may be required to input a duplicated e-mail address for confirmation. If the input of the user's e-mail address cannot be confirmed (NO in step S101), the server repeats step S101.

一方、ユーザのメールアドレスの入力が確認できた場合(ステップS101がYES)、サーバ3は、入力されたユーザのメールアドレスが既に登録済みのアドレスであるか否かを判断する(ステップS102)。入力されたユーザのメールアドレスが既に登録済みである場合(ステップS102がYES)、処理はステップS101に戻され、サーバ3は、別のメールアドレスの入力をユーザに促す。   On the other hand, if the input of the user's e-mail address is confirmed (YES in step S101), the server 3 determines whether the input user's e-mail address is an already registered address (step S102). If the input mail address of the user is already registered (YES in step S102), the process returns to step S101, and server 3 prompts the user to input another mail address.

入力されたユーザのメールアドレスが既に登録済みではない場合(ステップS102がNO)、サーバ3は、ユーザの個人情報の入力を待つ(ステップS103)。ここで個人情報とは、ユーザの氏名、電話番号、性別、身長、体重、などをいう。これらの情報は、仮想試着システム1の提供者が自由に設定することができる。また、仮想試着システム1が衣服の販売も行なう場合、個人情報としてクレジットカードなどの決済情報を個人情報として受け付けることが好ましい。サーバは、ユーザのメールアドレスの入力が確認できない場合(ステップS103がNO)、ステップS103を繰り返す。   If the input mail address of the user is not already registered (NO in step S102), the server 3 waits for input of the user's personal information (step S103). Here, the personal information refers to the user's name, telephone number, gender, height, weight, and the like. These information can be freely set by the provider of the virtual fitting system 1. When the virtual fitting system 1 also sells clothes, it is preferable to accept payment information such as a credit card as personal information as personal information. If the input of the user's e-mail address cannot be confirmed (NO in step S103), the server repeats step S103.

一方、ユーザの個人情報の入力が確認できた場合(ステップS103がYES)、サーバ3は、入力されたユーザの個人情報が全項目入力済みか否かを判断する(ステップS104)。ユーザの個人情報の入力に不備(欠損)がある場合(ステップS104がNO)、処理はステップS103に戻され、サーバ3は、未入力の項目をハイライトするなどの補助を個人情報入力画面に施して、ユーザに未入力の項目の入力を促す。なお、ここのステップS104でサーバ3は、ユーザの体型情報として身長と体重の入力をユーザに求めるが、次のステップS105に含めることとしてもよい。その場合、ステップS105についても入力必須項目とすることが好ましい。   On the other hand, when the input of the user's personal information has been confirmed (YES in step S103), the server 3 determines whether or not all the items of the input personal information of the user have been input (step S104). If there is an incompleteness (loss) in the input of the user's personal information (NO in step S104), the process returns to step S103, and the server 3 provides assistance such as highlighting an uninputted item on the personal information input screen. To prompt the user to enter an item that has not been entered. Note that, in step S104, the server 3 requests the user to input the height and weight as the user's body type information, but the server 3 may include the information in the next step S105. In that case, it is preferable that step S105 is also an input required item.

ユーザの個人情報が全項目入力済である場合(ステップS104がYES)、サーバ3は、ユーザの詳細な体型情報の入力を促す(ステップS105)。詳細な体型情報とは、身長および体重以外の詳細な体型に関する数値情報である。具体的には、胸囲、腕長、太もも周囲長、などを含むが、これらの項目は本発明を特に限定するものではない。更に、詳細な体型情報にはユーザの頭部画像が含まれてもよい。これらの詳細な体型情報の入力は任意であり、未入力であっても新規会員登録は可能である。   When all the items of the user's personal information have been input (YES in step S104), the server 3 prompts the user to input detailed body type information of the user (step S105). The detailed body type information is numerical information on detailed body types other than height and weight. Specifically, it includes the chest circumference, arm length, thigh circumference, and the like, but these items do not particularly limit the present invention. Further, the detailed body type information may include a head image of the user. The input of these detailed body type information is optional, and new members can be registered even if they have not been input.

続くステップS106で、サーバ3は、ユーザが入力した個人情報などの最終確認を行なう要求を受け付けるための「最終確認に進むボタン」を押下するのを待つ。サーバは、「最終確認に進むボタン」が押下されていない場合(ステップS106がNO)、ステップS106を繰り返す。   In subsequent step S106, server 3 waits for pressing a “button for final confirmation” for receiving a request for final confirmation of personal information and the like input by the user. If the “button to proceed to final confirmation” is not pressed (NO in step S106), the server repeats step S106.

一方、ユーザが最終確認に進むためのボタンを押下した場合(ステップS106がYES)、サーバ3は、ユーザが入力した個人情報に誤りがないかをユーザに確認させる画面を生成してユーザの端末装置2に送信する(ステップS107)。また、この画面には、ユーザが入力した個人情報などの最終確認が完了して、会員登録を要求する場合に押下する「登録ボタン」が表示されている。また、ユーザが個人情報などの入力に誤りがあって、入力画面に戻るための「戻るボタン」が表示されている。この「戻るボタン」が押下された場合の説明は、割愛する。   On the other hand, when the user presses the button for proceeding to the final confirmation (YES in step S106), server 3 generates a screen for prompting the user to confirm whether or not the personal information input by the user is correct, and generates a screen for the user. The data is transmitted to the device 2 (step S107). Further, on this screen, a “registration button” to be pressed when a final confirmation of personal information or the like input by the user is completed and a membership registration is requested is displayed. In addition, a "return button" for returning to the input screen is displayed when the user has made an error in inputting personal information or the like. The description of the case where the “return button” is pressed is omitted.

次に、サーバ3は、ユーザが会員登録の要求を送信するために「登録ボタン」を押下するのを待つ(ステップS108)。サーバ3は、「登録ボタン」が押下されていない場合(ステップS108がNO)、ステップS108を繰り返す。   Next, the server 3 waits until the user presses a “registration button” to transmit a request for member registration (step S108). If the “registration button” has not been pressed (NO in step S108), server 3 repeats step S108.

一方、「登録ボタン」が押下された場合(ステップS108がYES)、サーバ3は、ユーザが入力した個人情報および新たに付与するユーザ識別情報を対応付けてサーバ記憶部313のユーザデータベース312に記憶する(ステップS109)。そして、サーバ3は、新規会員登録処理を終了させる。   On the other hand, when the “registration button” is pressed (YES in step S108), the server 3 stores the personal information input by the user and the user identification information to be newly added in the user database 312 of the server storage unit 313 in association with each other. (Step S109). Then, the server 3 ends the new member registration process.

(生成部315および変換部316による仮想試着画像の生成処理)
図15は、本実施形態にかかる仮想試着システム1による複数の衣服の仮想試着画像の生成処理の一連の流れの動作シーケンスの一例を示す図である。すなわち、ユーザが衣服データベース311から選択した任意の複数の衣服を試着した際の仮想試着状態を仮想の3次元画像と生成する際の処理である。
(Generation process of virtual fitting image by generation unit 315 and conversion unit 316)
FIG. 15 is a diagram illustrating an example of an operation sequence of a series of flows of a virtual fitting image generation process of a plurality of clothes by the virtual fitting system 1 according to the present embodiment. In other words, this is a process for generating a virtual fitting state when a user tries on a plurality of arbitrary clothes selected from the clothes database 311 as a virtual three-dimensional image.

以下に説明する動作シーケンスは、予めサーバ記憶部313に記憶されているプログラムに基づいて、主にサーバ処理部317により、サーバ3の各要素と協働して実行される。更に、以下に説明する動作シーケンスは、予めユーザの端末装置2の端末記憶部212に記憶されているプログラムに基づいて、主に端末装置2の端末処理部215により、端末装置2の各要素と協働して実行される。また、以下に説明する動作シーケンスにおいて、サーバ3は、サーバ通信部318を介してユーザの端末装置2と各種の情報を送受信する。   The operation sequence described below is mainly executed by the server processing unit 317 in cooperation with each element of the server 3 based on a program stored in the server storage unit 313 in advance. Further, the operation sequence described below is mainly performed by the terminal processing unit 215 of the terminal device 2 based on the program stored in the terminal storage unit 212 of the terminal device 2 of the user. It is performed in cooperation. In the operation sequence described below, the server 3 transmits and receives various kinds of information to and from the user terminal device 2 via the server communication unit 318.

本処理は、ユーザが複数の衣服を衣服データベース311から選択する工程を終えた後に行なわれるため、ユーザによる衣服データベース311から衣服を選択する処理については、本実施形態において割愛する。また、本実施形態は、複数の衣服の仮想試着画像を生成することに特徴を有するが、単一の衣服の仮想試着画像を生成する機能を有してもよい。   Since this processing is performed after the user has completed the step of selecting a plurality of clothes from the clothes database 311, the processing of selecting clothes from the clothes database 311 by the user is omitted in this embodiment. Further, the present embodiment is characterized in that a virtual fitting image of a plurality of clothes is generated, but may have a function of generating a virtual fitting image of a single clothes.

まず、サーバ3は、ユーザの端末装置2から複数の衣服の選択入力および当該選択入力された衣服の着衣順序の入力がされたか否かを判断する(ステップS201)。サーバ3は、複数の衣服の選択入力および当該選択入力された衣服の着衣順序の入力が確認できない場合(ステップS201がNO)、ステップS201を繰り返す。なお、ここで複数の衣服の着衣順序をユーザが入力し忘れていた場合などは、ユーザの端末装置2に警告表示などを表示し、ユーザによる着衣順序の入力を促す。また、複数の衣服の選択入力および当該選択入力された衣服の着衣順序の入力の確認は、「試着するボタン」などをユーザが押下した際に行なわれる。   First, the server 3 determines whether or not a selection of a plurality of clothes and an input of a clothes order of the selected clothes have been input from the user's terminal device 2 (step S201). If the selection input of the plurality of clothes and the input of the clothing order of the selected and input clothes cannot be confirmed (NO in step S201), server 3 repeats step S201. If the user has forgotten to input the order of clothes, a warning display or the like is displayed on the user's terminal device 2 to urge the user to input the order of clothes. The input of selecting a plurality of clothes and the input of the order of the selected clothes are performed when the user presses a “button to try on” or the like.

次にサーバ3は、ユーザが選択入力した複数の衣服のそれぞれについて2次元画像を衣服データベースから抽出する(ステップS202)。   Next, the server 3 extracts a two-dimensional image from the clothes database for each of the clothes selected and input by the user (step S202).

そして、サーバ3は、抽出した複数の2次元画像の距離画像および法線画像を重合して重合画像を生成する(ステップS203)。この重合画像は、サーバ3内で生成されるものであり、ユーザの端末装置2に送信されるものではない。   Then, the server 3 generates a superimposed image by superimposing the distance image and the normal image of the extracted two-dimensional images (Step S203). This superimposed image is generated in the server 3 and is not transmitted to the user terminal device 2.

サーバ3は、ユーザの頭部画像および体型情報をユーザデータベース312から抽出して、抽出したユーザの体型情報を基に共通の中間ポリゴンモデルを補正して頭部画像を合成することでユーザの仮想人体モデルを生成する(ステップS204)。   The server 3 extracts the user's head image and body type information from the user database 312, corrects a common intermediate polygon model based on the extracted user's body type information, and synthesizes the head image to synthesize the user's virtual image. A human body model is generated (Step S204).

サーバ3は、ステップS204で生成されたユーザの仮想人体モデルにステップS203で生成された重合画像を更に重合することで、当該重合画像を試着画像としての3次元画像に変換する(ステップS205)。   The server 3 further converts the superimposed image into a three-dimensional image as a fitting image by further superimposing the superimposed image generated in step S203 on the virtual human body model of the user generated in step S204 (step S205).

生成部315および変換部316による仮想試着画像の生成処理は、ユーザが仮想試着システム1にログインした状態で行なわれていることを前提としているが、仮想試着画像の生成処理は、未ログイン状態でも使用可能であり、本処理の任意のタイミングでログインをユーザに求めてよい。例えば、ステップS205の変換処理では、ユーザの体型情報をユーザデータベースから抽出する必要があるため、この処理に移行する直前にログインを必須としたり、ログインを促したりするとよい。   The generation process of the virtual fitting image by the generation unit 315 and the conversion unit 316 is based on the premise that the user is logged in to the virtual fitting system 1. It can be used, and the user may be asked to log in at any time during this process. For example, in the conversion process of step S205, since it is necessary to extract the body type information of the user from the user database, it is preferable to make a login mandatory or prompt the login immediately before shifting to this process.

以上説明したように、本実施形態にかかる仮想試着システム1は、複数の衣服の重ね着を、2次元画像を重合するという簡易な処理により衣服を正確に重ね合わせ、更に重合画像を最終的に3次元画像に戻すことで容易に3次元画像を生成することができる。すなわち、サーバ3の処理を軽減することができ、3次元画像の生成にかかる処理速度も早めることが可能となる。また、仮想試着システム1は、複数の衣服を共通の中間ポリゴンモデルを用いて2次元画像に変換して衣服データベース311に記憶しているため、複数の衣服およびユーザの体型を共通の中間ポリゴンモデルを用いて更に重合することで3次元画像を容易に得ることができる。   As described above, the virtual fitting system 1 according to the present embodiment accurately overlaps a plurality of clothes by overlaying the clothes by a simple process of stacking two-dimensional images, and finally stacks the stacked images. By returning to the three-dimensional image, a three-dimensional image can be easily generated. That is, the processing of the server 3 can be reduced, and the processing speed for generating a three-dimensional image can be increased. In addition, since the virtual fitting system 1 converts a plurality of clothes into a two-dimensional image using a common intermediate polygon model and stores the two-dimensional image in the clothes database 311, the plurality of clothes and the body shape of the user are stored in the common intermediate polygon model. A three-dimensional image can be easily obtained by further polymerizing using.

当業者は、本発明の精神および範囲から外れることなく、様々な変更、置換および修正をこれに加えることが可能であることを理解されたい。   It should be understood that those skilled in the art can make various changes, substitutions and modifications without departing from the spirit and scope of the invention.

(変形例1)
本実施形態において生成部315は、複数の衣服の2次元画像に含まれる同一法線方向における距離画像の値をピクセルごとに単純に加算したが、実際は人体または衣服の凹凸に応じて最外側の衣服の凹凸は、複数の重合画像の重合結果よりも滑らかになる。すなわち、女性の胸部や衣服のホタンなどの凹凸を考慮して最外側の衣服の凹凸を滑らかに処理することが好ましい。
(Modification 1)
In the present embodiment, the generation unit 315 simply adds the value of the distance image in the same normal direction included in the two-dimensional image of a plurality of clothes for each pixel, but actually, the outermost image is determined according to the unevenness of the human body or the clothes. The unevenness of the clothes becomes smoother than the polymerization result of the plurality of polymerization images. That is, it is preferable to smoothly treat the unevenness of the outermost clothes in consideration of the unevenness of the woman's chest and the clothing's button.

よって、生成部315は、法線画像が含む複数の法線方向のうち一法線方向における前記距離画像が持つ距離の大きさと、当該一法線方向の近傍の法線方向における距離画像が持つ距離の大きさとの差異に応じて、小さい距離を持つ法線方向の距離を大きい距離を持つ法線方向の距離に近づける補正を行なった上で重合画像を生成する。この補正によって、仮想試着画像を実際に試着した際の試着状態に近づけることができる。この処理は、着衣される衣服ごとに行なってもよく、加算された距離が算出された後に1回だけ行なわれるようにしてもよい。   Therefore, the generation unit 315 has the distance magnitude of the distance image in one normal direction among the plurality of normal directions included in the normal image, and the distance image in the normal direction near the one normal direction. According to the difference from the magnitude of the distance, a correction is performed to make the distance in the normal direction having a small distance close to the distance in the normal direction having a large distance, and then a superimposed image is generated. By this correction, the virtual fitting image can be made closer to the fitting state when actually fitting. This processing may be performed for each piece of clothing to be worn, or may be performed only once after the added distance is calculated.

(変形例2)
本実施形態において生成部315は、衣服の素材の種類に問わず単純に複数の衣服の2次元画像に含まれる同一法線方向における距離画像の値をピクセルごとに加算したが、衣服の素材によっては、単純に距離を加算してしまうと実際の試着時の衣服状態と異なる仮想試着画像が生成されてしまう可能性がある。
(Modification 2)
In the present embodiment, the generation unit 315 simply adds, for each pixel, the value of the distance image in the same normal direction included in the two-dimensional image of a plurality of clothes regardless of the type of the material of the clothes. However, if the distance is simply added, a virtual fitting image different from the actual clothing state at the time of fitting may be generated.

そこで、生成部315は、衣服データベース311に含まれる複数の衣服の素材情報または剛性情報に基づいて法線方向の距離を補正することで重合画像を生成する。すなわち、生成部315は、人体や下層の衣服の影響を受けやすい素材や受けにくい素材に応じて、最外側の距離を補正する。本変形例においても、変形例1同様に小さい距離を持つ法線方向の距離を大きい距離を持つ法線方向の距離に近づける補正を行なうとよい。なお、本変形例は、変形例1と組み合わせてもよい。   Therefore, the generation unit 315 generates a superimposed image by correcting the distance in the normal direction based on the material information or the stiffness information of a plurality of clothes included in the clothes database 311. That is, the generation unit 315 corrects the outermost distance in accordance with a material that is easily affected by the human body or lower-layer clothing or a material that is less likely to be affected by the clothing. Also in this modification, similarly to the first modification, it is preferable to perform correction so that the distance in the normal direction having a small distance approaches the distance in the normal direction having a large distance. This modification may be combined with the first modification.

(変形例3)
本実施形態において生成部315は、複数の衣服の2次元画像に含まれる距離画像および法線画像を重合した際に法線方向において最も外側に距離を持つ箇所の色彩を当該法線方向における色彩とすることで重合画像を生成したが、外側の衣服の透過度によっては、実際の試着した際の色彩と異なる場合がある。
(Modification 3)
In the present embodiment, when the distance image and the normal image included in the two-dimensional image of a plurality of clothes are superimposed, the generation unit 315 converts the color of the portion having the outermost distance in the normal direction into the color in the normal direction. Thus, a superimposed image is generated, but depending on the transmittance of the outer clothes, the color may be different from the color at the time of actual fitting.

よって、生成部315は、複数の衣服の外側衣服および当該外側衣服の内側衣服の色彩、および外側衣服の透過度に基づいて当該法線方向における色彩を補正することで重合画像を生成する。すなわち、外側衣服の透過度が大きい場合は、その下の層の衣服の色が透過する。透過度に応じて、下の層の衣服の色彩を外側衣服の色彩に加える割合を変更することでより正確な仮想試着画像を得ることができる。   Therefore, the generation unit 315 generates a superimposed image by correcting the color in the normal direction based on the colors of the outer clothes of the plurality of clothes, the inner clothes of the outer clothes, and the transmittance of the outer clothes. That is, when the transmittance of the outer garment is high, the color of the garment in the lower layer is transmitted. A more accurate virtual fitting image can be obtained by changing the ratio of adding the color of the lower layer clothing to the color of the outer clothing according to the transmittance.

(本発明の適用範囲)
本実施形態にかかる仮想試着システム1は、複数のユーザの端末装置2のウェブブラウザをユーザが相互に制御してインターネット4などを介してサーバ3が複数の衣服の重ね着を可視した仮想試着画像を複数のユーザの端末装置2に送信することを前提としている。別の態様として、複数のユーザの端末装置2がサーバ3からダウンロードしたアプリケーションソフトウェアの機能として、仮想試着を実施することも可能である。すなわち、アプリケーションは、サーバ3のサーバ記憶部に記憶されている衣服データベース311を参照して、任意の複数の衣服を選択入力する。また、衣服データベース311がサーバ3ではなく、外部のサーバやユーザの端末装置2に含まれる構成とすることも可能である。複数の衣服の選択入力を受け付けた場合に、ユーザの端末装置は、アプリケーションソフトウェアと共同して、2次元画像の重合画像を生成したり、重合画像を3次元に変換したりする。この場合、上述の生成部315および変換部316の制御を端末処理部215が担うことになる。
(Scope of application of the present invention)
In the virtual fitting system 1 according to the present embodiment, a virtual fitting image in which the users mutually control the web browsers of the terminal devices 2 of the plurality of users and the server 3 visualizes the overlapping of a plurality of clothes via the Internet 4 or the like. Is transmitted to the terminal devices 2 of a plurality of users. As another mode, virtual fitting can be performed as a function of the application software downloaded from the server 3 by the terminal devices 2 of a plurality of users. That is, the application refers to the clothing database 311 stored in the server storage unit of the server 3 and selects and inputs a plurality of arbitrary clothing. Further, the clothing database 311 may be included not in the server 3 but in an external server or the user's terminal device 2. When receiving a selection input of a plurality of clothes, the user's terminal device generates a superimposed image of a two-dimensional image or converts the superimposed image into three-dimensional images in cooperation with application software. In this case, the terminal processing unit 215 controls the generation unit 315 and the conversion unit 316 described above.

[第2実施形態]
次に、第2実施形態について説明する。なお、第2実施形態では、第1実施形態と異なる部分のみ説明し、第1実施形態と同様の部分の説明を省略する。
[Second embodiment]
Next, a second embodiment will be described. In the second embodiment, only parts different from the first embodiment will be described, and description of the same parts as in the first embodiment will be omitted.

第2実施形態の仮想試着システム1では、生成部315は、複数の衣服の2次元画像に含まれる距離画像および2次元画像の不透明度を表すアルファに基づいて、重合画像を生成する。
距離画像には、例えば、ベクター・ディスプレイスメント・マップ(Vector Displacement Map)を利用する。ベクター・ディスレイスメント・マップは、赤色・緑色・青色(RGB)それぞれのチャンネルで3次元の変位を示すことができる。
In the virtual fitting system 1 according to the second embodiment, the generation unit 315 generates a superimposed image based on a distance image included in a two-dimensional image of a plurality of clothes and alpha representing the opacity of the two-dimensional image.
For the distance image, for example, a vector displacement map is used. The vector displacement map can show three-dimensional displacement in each of red, green, and blue (RGB) channels.

ベクター・ディスプレイスメント・マップは、仮想試着システム1によって、又は、仮想試着システム1の外部に配される装置において、例えば、次のように生成される。
まず、仮想試着システム1等は、UVマップに基づいて、3次元モデル(中間モデル)の空間上の座標から第1のポジションマップ(X,Y,Z座標をそれぞれR,G,Bで保存したもの)を生成する。次に、仮想試着システム1等は、例えば、シュリンクラップ(あるモデルの頂点を別のモデルの表面に投影する技術)等を利用して、3次元モデル(中間モデル)を、形状を取得したい対象を示すモデルに変形させることに基づいて、第2のポジションマップを生成する。ベクター・ディスプレイスメント・マップは、第2のポジションマップの値から第1のポジションマップの値を引くことにより算出される。
なお、UVマップは、3次元モデルを構成する面を2次元平面にどのように展開するかを示すデータである。3次元モデルを構成する面は、それ単体では平面とみなすことができる。UVマップは、3次元モデルの各平面に画像をどのように割り当てるのかを示すデータである。
The vector displacement map is generated by the virtual fitting system 1 or in a device arranged outside the virtual fitting system 1, for example, as follows.
First, the virtual fitting system 1 or the like stores the first position map (X, Y, Z coordinates as R, G, B, respectively) from the coordinates in the space of the three-dimensional model (intermediate model) based on the UV map. Stuff). Next, the virtual fitting system 1 or the like uses, for example, shrink wrap (a technique of projecting the vertices of a certain model onto the surface of another model) or the like to convert a three-dimensional model (intermediate model) into a target whose shape is to be acquired. The second position map is generated based on the transformation into a model indicating. The vector displacement map is calculated by subtracting the value of the first position map from the value of the second position map.
Note that the UV map is data indicating how a plane constituting a three-dimensional model is developed on a two-dimensional plane. The surface constituting the three-dimensional model can be regarded as a plane by itself. The UV map is data indicating how to assign an image to each plane of the three-dimensional model.

アルファは、例えば、画像編集ソフトによるペイント処理に基づいて、2次元画像から取得される。又は、アルファは、例えば、ベイク(転写)処理により、衣服に関する他のモデルの色及び不透明度に基づいて取得される。   Alpha is acquired from a two-dimensional image based on, for example, a paint process by image editing software. Alternatively, the alpha is acquired based on the color and opacity of another model of the clothing by, for example, a bake (transfer) process.

図18は、第2実施形態に係り、着衣順序が最内側となる衣服の2次元画像(衣服の画像)を示す模式図である。図19は、第2実施形態に係り、着衣順序が最内側となる衣服の2次元画像(ベクター・ディスプレイスメント・マップ)を示す模式図である。図20は、第2実施形態に係り、着衣順序が最外側となる衣服の2次元画像(衣服の画像)を示す模式図である。図21は、第2実施形態に係り、着衣順序が最外側となる衣服の2次元画像(ベクター・ディスプレイスメント・マップ)を示す模式図である。図22は、着衣順序が最内側となる衣服に関して、ベクター・ディスプレイスメント・マップに衣服の画像のアルファチャンネルを適用した画像を示す模式図である。図23は、着衣順序が最外側となる衣服に関して、ベクター・ディスプレイスメント・マップに衣服の画像のアルファチャンネルを適用した画像を示す模式図である。図24は、最内側の衣服の画像と最外側の衣服の画像とを重合した画像(衣服の画像同士のアルファ合成)を示す模式図である。図25は、最内側の衣服の画像と最外側の衣服の画像とを重合した画像(ベクター・ディスプレイスメント・マップ同士のアルファ合成)を示す模式図である。   FIG. 18 is a schematic diagram illustrating a two-dimensional image (clothes image) of clothing in which the clothing order is the innermost according to the second embodiment. FIG. 19 is a schematic diagram illustrating a two-dimensional image (a vector displacement map) of clothing in which the clothing order is the innermost according to the second embodiment. FIG. 20 is a schematic diagram illustrating a two-dimensional image (image of clothing) of clothing whose clothing order is the outermost according to the second embodiment. FIG. 21 is a schematic diagram illustrating a two-dimensional image (a vector displacement map) of clothing in which the clothing order is the outermost according to the second embodiment. FIG. 22 is a schematic diagram illustrating an image in which the alpha channel of the image of the clothing is applied to the vector displacement map for the clothing whose clothing order is the innermost. FIG. 23 is a schematic diagram illustrating an image in which the alpha channel of the image of the clothing is applied to the vector displacement map for the clothing whose clothing order is the outermost. FIG. 24 is a schematic diagram illustrating an image obtained by superimposing the image of the innermost clothing and the image of the outermost clothing (alpha synthesis of the clothing images). FIG. 25 is a schematic diagram showing an image obtained by superimposing an image of the innermost clothes and an image of the outermost clothes (alpha synthesis of vector displacement maps).

生成部315は、着衣順序が最内側となる衣服の2次元画像を衣服データベース311から抽出して、ベクター・ディスプレイスメント・マップ(図19)に衣服の画像(図18)のアルファチャンネルを適用する。その適用した結果は、図22に示すようになる。
生成部315は、着衣順序が最外側となる衣服の2次元画像を衣服データベース311から抽出して、ベクター・ディスプレイスメント・マップ(図21)に衣服の画像(図20)のアルファチャンネルを適用する。その適用した結果は、図23に示すようになる。
The generation unit 315 extracts a two-dimensional image of the clothing whose clothing order is the innermost from the clothing database 311 and applies the alpha channel of the clothing image (FIG. 18) to the vector displacement map (FIG. 19). . The result of the application is as shown in FIG.
The generation unit 315 extracts the two-dimensional image of the clothing whose clothing order is the outermost from the clothing database 311 and applies the alpha channel of the clothing image (FIG. 20) to the vector displacement map (FIG. 21). . The result of the application is as shown in FIG.

次に、生成部315は、最内側の衣服と最外側の衣服とを重合する。具体的には、生成部315は、最内側の衣服の画像(図18)と、最外側の衣服の画像(図20)とをアルファ合成する。アルファ合成は、RGB及びアルファの値を持つ画像の各画素の色(RGB)を透過情報(アルファ)を使用して合成する処理である。そのアルファ合成の結果は、図24に示すようになる。これにより、生成部315は、透過度に応じて衣服の「色」を合成することができる。「重合」は、複数の画像を合成する、又は、複数の画像を重畳するような処理である。   Next, the generation unit 315 superimposes the innermost clothing and the outermost clothing. Specifically, the generation unit 315 alpha-combines the image of the innermost clothes (FIG. 18) and the image of the outermost clothes (FIG. 20). The alpha synthesis is a process of synthesizing the color (RGB) of each pixel of an image having RGB and alpha values using transmission information (alpha). The result of the alpha synthesis is as shown in FIG. Thereby, the generation unit 315 can synthesize the “color” of the clothing according to the transmittance. "Superposition" is a process of combining a plurality of images or superimposing a plurality of images.

生成部315は、最内側の衣服のベクター・ディスプレイスメント・マップ(図22)と、最外側の衣服のベクター・ディスプレイスメント・マップ(図23)とをアルファ合成する。ベクター・ディスプレイスメント・マップは、本来、3次元の変位(X,Y,Z座標)を示すRGBチャンネルしかない。しかし、本実施形態では、生成部315によってベクター・ディスプレイスメント・マップに衣服の画像から取得したアルファチャンネルを追加しているため、アルファ合成の手法が適用可能になる。そのアルファ合成の結果は、図25に示すようになる。これにより、生成部315は、透過度に応じて衣服の「変位量」を合成することができる。   The generation unit 315 alpha-combines the vector displacement map of the innermost clothes (FIG. 22) and the vector displacement map of the outermost clothes (FIG. 23). A vector displacement map originally has only RGB channels indicating three-dimensional displacement (X, Y, Z coordinates). However, in the present embodiment, since the alpha channel obtained from the clothing image is added to the vector displacement map by the generation unit 315, an alpha synthesis method can be applied. The result of the alpha synthesis is as shown in FIG. Thereby, the generation unit 315 can synthesize the “displacement amount” of the clothing according to the transmittance.

変換部316は、生成部315によって重合された2次元画像に基づいて、第1実施形態と同様に、3次元画像を生成する。   The conversion unit 316 generates a three-dimensional image based on the two-dimensional image superimposed by the generation unit 315, as in the first embodiment.

1 仮想試着システム
2 端末装置
211 端末通信部
212 端末記憶部
213 端末操作部
214 端末表示部
215 端末処理部
3 サーバ
311 衣服データベース
312 ユーザデータベース
313 サーバ記憶部
314 受付部
315 生成部
316 変換部
317 サーバ処理部
318 サーバ通信部
Reference Signs List 1 virtual fitting system 2 terminal device 211 terminal communication unit 212 terminal storage unit 213 terminal operation unit 214 terminal display unit 215 terminal processing unit 3 server 311 clothing database 312 user database 313 server storage unit 314 reception unit 315 generation unit 316 conversion unit 317 server Processing unit 318 Server communication unit

Claims (11)

モデルの頭部画像および当該モデルの体型情報を端末装置より受け付けるモデル情報受付部と、
身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付ける衣服情報受付部と、
前記複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより前記任意の複数の衣服に対応する2次元画像を抽出し、前記着衣順序に基づいて前記2次元画像を重合した重合画像を生成する生成処理部と、
前記重合画像を前記体型情報に基づいて3次元画像に変換をする変換処理部と、
前記3次元画像および前記頭部画像を前記端末装置へ送信する送信部と、を含み、
前記生成処理部は、任意の中間ポリゴンモデルを共通に使用して変換された前記2次元画像を重合することで前記重合画像を生成する
ことを特徴とする仮想試着装置。
A model information receiving unit that receives a head image of the model and body type information of the model from the terminal device,
A clothing information receiving unit that receives an arbitrary plurality of clothes and an arbitrary clothing order in the same part of the body,
A two-dimensional image corresponding to the arbitrary plurality of clothes is extracted from an image information database obtained by converting the clothes of the plurality of clothes into a two-dimensional image, and a superimposed image obtained by superimposing the two-dimensional images based on the clothing order is obtained. A generation processing unit to generate,
A conversion processing unit that converts the superimposed image into a three-dimensional image based on the body type information;
A transmitting unit that transmits the three-dimensional image and the head image to the terminal device ,
The virtual fitting device , wherein the generation processing unit generates the superimposed image by superimposing the two-dimensional image converted using an arbitrary intermediate polygon model in common .
前記変換処理部は、前記体型情報を基に前記任意の中間ポリゴンモデルを補正することで前記モデルの仮想人体モデルを生成し、
前記変換処理部は、前記仮想人体モデルに前記重合画像を更に重合することで前記重合画像を前記3次元画像に変換する
ことを特徴とする請求項1に記載の仮想試着装置。
The conversion processing unit generates a virtual human body model of the model by correcting the arbitrary intermediate polygon model based on the body type information,
The virtual fitting apparatus according to claim 1 , wherein the conversion processing unit converts the superimposed image into the three-dimensional image by further superimposing the superimposed image on the virtual human body model.
前記生成処理部は、前記複数の衣服の2次元画像に含まれる距離画像および法線画像を重合することで前記重合画像を生成する
ことを特徴とする請求項2に記載の仮想試着装置。
The virtual fitting device according to claim 2 , wherein the generation processing unit generates the superimposed image by superimposing a distance image and a normal image included in a two-dimensional image of the plurality of clothes.
前記生成処理部は、前記法線画像が含む一法線方向における前記距離画像が持つ距離の大きさを最内側衣服から最外側の衣服に向けて加算することで前記一法線方向における距離を算出することで前記重合画像を生成する
ことを特徴とする請求項3に記載の仮想試着装置。
The generation processing unit, the distance in the one normal direction by adding the size of the distance of the distance image in the one normal direction included in the normal image from the innermost clothing to the outermost clothing The virtual fitting device according to claim 3 , wherein the superimposed image is generated by calculating.
前記生成処理部は、前記法線画像が含む複数の法線方向のうち一法線方向における前記距離画像が持つ距離の大きさと、当該一法線方向の近傍の法線方向における距離画像が持つ距離の大きさとの差異に応じて、小さい距離を持つ法線方向の距離を大きい距離を持つ法線方向の距離に近づけることで前記重合画像を生成する
ことを特徴とする請求項4に記載の仮想試着装置。
The generation processing unit includes a magnitude of a distance of the distance image in one normal direction among a plurality of normal directions included in the normal image, and a distance image in a normal direction near the one normal direction. The overlapping image is generated by bringing a distance in a normal direction having a small distance closer to a distance in a normal direction having a large distance according to a difference from the magnitude of the distance. The method according to claim 4 , wherein Virtual fitting device.
前記画像情報データベースは、前記複数の衣服の素材情報または剛性情報を更に含み、
前記生成処理部は、前記素材情報または剛性情報を基に前記法線方向の距離を補正することで前記重合画像を生成する
ことを特徴とする請求項5に記載の仮想試着装置。
The image information database further includes material information or rigidity information of the plurality of clothes,
The virtual fitting device according to claim 5 , wherein the generation processing unit generates the superimposed image by correcting the distance in the normal direction based on the material information or the rigidity information.
前記2次元画像は、色彩画像を更に含み、
前記生成処理部は、前記3次元画像の色彩として、前記複数の衣服の2次元画像に含まれる前記距離画像および法線画像を重合した際に法線方向において最も外側に距離を持つ箇所の色彩を当該法線方向における色彩とすることで前記重合画像を生成する
ことを特徴とする請求項6に記載の仮想試着装置。
The two-dimensional image further includes a color image,
The generation processing unit includes, as a color of the three-dimensional image, a color of a portion having an outermost distance in a normal direction when the distance image and the normal image included in the two-dimensional images of the clothes are superimposed. The virtual fitting apparatus according to claim 6 , wherein the overlapped image is generated by setting a color in the normal direction.
前記生成処理部は、前記複数の衣服の外側衣服および当該外側衣服の内側衣服の色彩、および前記外側衣服の透過度に基づいて当該法線方向における色彩を補正することで前記重合画像を生成する
ことを特徴とする請求項7に記載の仮想試着装置。
The generation processing unit generates the superimposed image by correcting the color in the normal direction based on the colors of the outer clothes of the plurality of clothes and the inner clothes of the outer clothes, and the transmittance of the outer clothes. The virtual fitting device according to claim 7 , wherein:
前記生成処理部は、前記複数の衣服の2次元画像に含まれる距離画像および2次元画像の不透明度を表すアルファに基づいて、前記重合画像を生成する
請求項2に記載の仮想試着装置。
The generation processing unit generates the superimposed image based on a distance image included in the two-dimensional image of the plurality of clothes and alpha representing opacity of the two-dimensional image.
The virtual fitting device according to claim 2 .
モデルの頭部画像および当該モデルの体型情報を端末装置より受け付けるステップと、
身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付けるステップと、
前記複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより前記任意の複数の衣服に対応する2次元画像を抽出し、前記着衣順序に基づいて前記2次元画像を重合した重合画像を生成する生成ステップと、
前記重合画像を前記体型情報に基づいて3次元画像に変換をするステップと、
前記3次元画像および前記頭部画像を前記端末装置へ送信するステップと、を含み、
前記生成ステップは、任意の中間ポリゴンモデルを共通に使用して変換された前記2次元画像を重合することで前記重合画像を生成する
むことを特徴とする仮想試着方法。
Receiving a head image of the model and body type information of the model from the terminal device;
Receiving any of a plurality of clothes and the order of wearing the plurality of clothes in the same part of the body;
A two-dimensional image corresponding to the arbitrary plurality of clothes is extracted from an image information database obtained by converting the clothes of the plurality of clothes into a two-dimensional image, and a superimposed image obtained by superimposing the two-dimensional images based on the clothing order is obtained. A generating step to generate ;
Converting the superimposed image into a three-dimensional image based on the body type information;
Transmitting the three-dimensional image and the head image to the terminal device ,
The virtual fitting method, characterized in that the generating step generates the superimposed image by superimposing the two-dimensional image converted using an arbitrary intermediate polygon model in common .
コンピュータに、
モデルの頭部画像および当該モデルの体型情報を端末装置より受け付ける機能と、
身体の同一部位において任意の複数の衣服および当該任意の複数の衣服の着衣順序を受け付ける機能と、
前記複数の衣服の着衣状態を2次元画像に変換した画像情報データベースより前記任意の複数の衣服に対応する2次元画像を抽出し、前記着衣順序に基づいて前記2次元画像を重合した重合画像を生成する生成機能と、
前記重合画像を前記体型情報に基づいて3次元画像に変換をする機能と、
前記3次元画像および前記頭部画像を前記端末装置へ送信する機能と、を実現させ
前記生成機能は、任意の中間ポリゴンモデルを共通に使用して変換された前記2次元画像を重合することで前記重合画像を生成する
ことを特徴とする仮想試着プログラム。
On the computer,
A function of receiving a model head image and body type information of the model from the terminal device;
A function of receiving an arbitrary plurality of clothes and a clothing order of the arbitrary plurality of clothes in the same part of the body,
A two-dimensional image corresponding to the arbitrary plurality of clothes is extracted from an image information database obtained by converting the clothes of the plurality of clothes into a two-dimensional image, and a superimposed image obtained by superimposing the two-dimensional images based on the clothing order is obtained. Generation function to generate ,
A function of converting the superimposed image into a three-dimensional image based on the body type information;
Transmitting the three-dimensional image and the head image to the terminal device .
A virtual fitting program , wherein the generation function generates the superimposed image by superimposing the two-dimensional image converted using an arbitrary intermediate polygon model in common .
JP2019557892A 2018-07-02 2019-07-01 Virtual fitting device, virtual fitting method, and virtual fitting program Active JP6631988B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018126372 2018-07-02
JP2018126372 2018-07-02
PCT/JP2019/026127 WO2020009066A1 (en) 2018-07-02 2019-07-01 Virtual try-on fitting apparatus, virtual try-on fitting method, and virtual try-on fitting program

Publications (2)

Publication Number Publication Date
JP6631988B1 true JP6631988B1 (en) 2020-01-15
JPWO2020009066A1 JPWO2020009066A1 (en) 2020-07-16

Family

ID=69060358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019557892A Active JP6631988B1 (en) 2018-07-02 2019-07-01 Virtual fitting device, virtual fitting method, and virtual fitting program

Country Status (2)

Country Link
JP (1) JP6631988B1 (en)
WO (1) WO2020009066A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7023558B1 (en) * 2021-06-22 2022-02-22 株式会社Vrc Information processing equipment, 3D system, and information processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6958885B1 (en) * 2021-05-28 2021-11-02 株式会社Vrc Information processing equipment, information processing methods, and programs

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102033A (en) * 1995-08-03 1997-04-15 Sanyo Electric Co Ltd Picture synthesis method
JP2004272530A (en) * 2003-03-07 2004-09-30 Digital Fashion Ltd Virtual fitting display device and method, virtual fitting display program, and computer readable recoding medium with the same program recorded
JP2005258537A (en) * 2004-03-09 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional model generating method and device and program and recording medium
JP2012118948A (en) * 2010-12-03 2012-06-21 Ns Solutions Corp Extended reality presentation device, and extended reality presentation method and program
JP2015079362A (en) * 2013-10-17 2015-04-23 セーレン株式会社 Try-on support device and method
JP2015215763A (en) * 2014-05-09 2015-12-03 セーレン株式会社 Clothes layering image processing device and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102033A (en) * 1995-08-03 1997-04-15 Sanyo Electric Co Ltd Picture synthesis method
JP2004272530A (en) * 2003-03-07 2004-09-30 Digital Fashion Ltd Virtual fitting display device and method, virtual fitting display program, and computer readable recoding medium with the same program recorded
JP2005258537A (en) * 2004-03-09 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional model generating method and device and program and recording medium
JP2012118948A (en) * 2010-12-03 2012-06-21 Ns Solutions Corp Extended reality presentation device, and extended reality presentation method and program
JP2015079362A (en) * 2013-10-17 2015-04-23 セーレン株式会社 Try-on support device and method
JP2015215763A (en) * 2014-05-09 2015-12-03 セーレン株式会社 Clothes layering image processing device and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7023558B1 (en) * 2021-06-22 2022-02-22 株式会社Vrc Information processing equipment, 3D system, and information processing method
CN114556332A (en) * 2021-06-22 2022-05-27 株式会社威亚视 Information processing apparatus, 3D system, and information processing method
CN114556332B (en) * 2021-06-22 2022-11-11 株式会社威亚视 Information processing apparatus, 3D system, and information processing method
WO2022269741A1 (en) * 2021-06-22 2022-12-29 株式会社Vrc Information processing device, 3d system, and information processing method

Also Published As

Publication number Publication date
JPWO2020009066A1 (en) 2020-07-16
WO2020009066A1 (en) 2020-01-09

Similar Documents

Publication Publication Date Title
KR102189394B1 (en) Fashion preference analysis
US20180137515A1 (en) Virtual dressing room
WO2015129353A1 (en) Virtual trial-fitting system, virtual trial-fitting program, virtual trial-fitting method, and storage medium in which virtual trial-fitting program is stored
US20140244442A1 (en) Method for automatically filling a virtual shopping cart with items
JP6631988B1 (en) Virtual fitting device, virtual fitting method, and virtual fitting program
US20150081468A1 (en) Measuring shirt
JP2007011543A (en) Article-wearing simulation system, article-wearing simulation method, and the like
CN106210504A (en) Image processing apparatus, image processing system and image processing method
KR20210133158A (en) Information processing device, information processing method, storage medium, and guide system
JP5264634B2 (en) Coordinating system, coordinating method and program
JP6659901B2 (en) Program, information processing method, and information processing apparatus
JP6938494B2 (en) Flowerbed ordering system and planting plan support program
US11468651B2 (en) Size measuring system
US20170364992A1 (en) Recommendation device, recommendation system, recommendation method, and program
KR102125314B1 (en) Method and Apparatus for Providing Product Information by Using Store and Image Information
WO2011125847A1 (en) Information processing device, information processing method, terminal device, information processing program, and storage medium
KR102297194B1 (en) Electronic device for design and sales for product based on oline to offline and method for operating thereof
JP2009128996A (en) Body shape model generation device and body shape model generation method
KR102065561B1 (en) Online shopping mall system
JP2001344481A (en) Internet boutique system and its selling method, and recording medium with recorded program thereof
JP2002183542A (en) Virtual trial wearing system, virtual try-on method, storage medium for virtual try-on wearing program
JP2009128997A (en) Clothing image display device and clothing image display method
JP2019191785A (en) Coordination system and program
KR20120031279A (en) Method for selling clothes using internet
JP2003030496A (en) Coordinate system and method on network

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191025

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191025

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191203

R150 Certificate of patent or registration of utility model

Ref document number: 6631988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250