JPH09106419A - Clothes fitting simulation method - Google Patents

Clothes fitting simulation method

Info

Publication number
JPH09106419A
JPH09106419A JP8003490A JP349096A JPH09106419A JP H09106419 A JPH09106419 A JP H09106419A JP 8003490 A JP8003490 A JP 8003490A JP 349096 A JP349096 A JP 349096A JP H09106419 A JPH09106419 A JP H09106419A
Authority
JP
Japan
Prior art keywords
image
color component
feature point
person
person image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8003490A
Other languages
Japanese (ja)
Inventor
Yoji Sugiura
洋治 杉浦
Shigeki Harada
茂樹 原田
Hiroshi Okamoto
浩 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP8003490A priority Critical patent/JPH09106419A/en
Publication of JPH09106419A publication Critical patent/JPH09106419A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To display the picture of the person dressing clothes desired to fit without a sense of incongruity by deforming a picture of a first person, based on memorized first and second feature point. SOLUTION: Picture data of a manikin in which the feature point is written and clothes picture data for fitting are written in an external storage device 18. A picture input device fetches the picture of the person desiring fitting. This person is arranged at the same position and in the same pose as the manikin to write the piece of picture data in a video memory 20. After various kinds of data is written in the external storage device 18 and the video memory 20 like this, CPU 14 changes the body shape and the color of the manikin to be close to the body shape and the skin color of the person and changes the shapes of the clothes to match with the changed manikin in addition to synthesize with the manikin. Then synthesized picture data is temporarily written in the video memory 20 and after then converted to an analog video signal by a D/A converter 28 to be outputted from CRT 30.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は試着シミュレーション
方法に関し、特にたとえば試着を希望する人物の画像に
所望の衣服を合成して表示する、試着シミュレーション
方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a fitting simulation method, and more particularly to a fitting simulation method for displaying desired clothes by combining them with an image of a person who wants to try them on.

【0002】[0002]

【従来の技術】従来のこの種の試着シミュレーション方
法の一例が、平成6年7月8日に出願公開された特開平
6−187398号公報(G06F 15/60)に開
示されている。この従来技術は、撮像部によって捉えら
れた試着を希望する人物の画像から輪郭線を抽出し、そ
の輪郭線上の所定の位置に2つの点を付し、そしてその
間隔に基づいて試着しようとする衣服の画像を拡大また
は縮小してその人物の画像に合成しようとするものであ
る。
2. Description of the Related Art An example of a conventional fitting simulation method of this type is disclosed in Japanese Patent Application Laid-Open No. 6-187398 (G06F 15/60) filed on July 8, 1994. In this conventional technique, a contour line is extracted from an image of a person who wants to be tried on by the image pickup unit, two points are attached at predetermined positions on the contour line, and try-on is made based on the interval. It is intended to enlarge or reduce the image of clothes and synthesize it with the image of the person.

【0003】[0003]

【発明が解決しようとする課題】しかし、このような従
来技術では、試着を希望する人物が長袖の服を着てお
り、その人物が試着する衣服として半袖の衣服を選択し
た場合、表示部には腕が欠落した画像が表示されたり、
その人物が実際に着ている服の袖の画像が表示されてし
まうという問題があった。このような問題を解決するた
めに、この人物の画像に他人の腕の画像を構成すること
も考えられるが、それでは画像に違和感が生じてしま
う。
However, in such a conventional technique, when a person who wants to try on wears long-sleeved clothes, and the short-sleeved clothing is selected as the clothes to be tried on by the person, the display section displays. May display an image with missing arms,
There was a problem that the image of the sleeve of the clothes actually worn by the person was displayed. In order to solve such a problem, it is conceivable that an image of another person's arm is formed in the image of this person, but this causes a feeling of strangeness in the image.

【0004】それゆえに、この発明の主たる目的は、試
着を望む衣服を着たその人物の画像を違和感なく表示す
ることができる、試着シミュレーション方法を提供する
ことである。
Therefore, a main object of the present invention is to provide a try-on simulation method capable of displaying an image of the person wearing the clothes desired to be try-on without any discomfort.

【0005】[0005]

【課題を解決するための手段】第1の発明は、(a) 第1
特徴点とともに第1人物画像をメモリし、(b) 第1特徴
点に対応する第2人物画像の第2特徴点をメモリし、そ
して(c) 第1特徴点および第2特徴点に基づいて第1人
物画像を変形する、試着シミュレーション方法である。
The first invention is (a) first
Storing the first person image with the feature points, (b) storing the second feature point of the second person image corresponding to the first feature point, and (c) based on the first feature point and the second feature point. This is a fitting simulation method for deforming the first person image.

【0006】第2の発明は、(a) 第2人物画像の第2所
定部分に含まれる画素の第2色成分を抽出し、(b) 第2
所定部分に対応する第1人物画像の第1所定部分に含ま
れる画素の第1色成分を抽出し、(c) 第1色成分および
第2色成分に基づいて変換係数を算出し、そして(d) 第
1人物画像に含まれる画素の色成分を変換係数に基づい
て変更する、試着シミュレーション方法である。
A second invention is (a) extracting the second color component of a pixel included in the second predetermined portion of the second person image, and (b) the second
The first color component of the pixel included in the first predetermined portion of the first person image corresponding to the predetermined portion is extracted, (c) the conversion coefficient is calculated based on the first color component and the second color component, and ( d) A fitting simulation method in which the color components of the pixels included in the first person image are changed based on the conversion coefficient.

【0007】第3の発明は、(a) 第3特徴点とともに衣
服画像をメモリし、(b) 第1人物画像の第1特徴点と第
3特徴点とに基づいて衣服画像を変形し、(c) 変形した
衣服画像を第1人物画像に合成する、試着シミュレーシ
ョン方法である。
According to a third aspect of the present invention, (a) the clothing image is stored together with the third feature point, and (b) the clothing image is transformed based on the first feature point and the third feature point of the first person image, (c) A fitting simulation method in which the deformed clothing image is combined with the first person image.

【0008】[0008]

【作用】第1の発明では、たとえば第1特徴点が付され
たマネキン画像のような第1人物画像がメモリされ、た
とえば試着を望む人物の画像のような第2人物画像がた
とえば第2特徴点を付されてメモリされる。その後、第
2特徴点が第1特徴点に一致するようにマネキン画像が
変形する。
According to the first aspect of the invention, the first person image such as the mannequin image having the first feature points is stored, and the second person image such as the image of the person who wants to try on the second feature image is stored. Memorized with dots. Then, the mannequin image is deformed so that the second feature points match the first feature points.

【0009】第2の発明では、たとえば試着を望む人物
のような第2人物画像の肌の色成分およびマネキンの画
像のような第1人物画像の対応する部分の色成分を抽出
して両者の変換係数が求められ、これによってマネキン
の全身の色が変更される。これによって、マネキン画像
の肌の色が試着を望む人物の肌の色に近づく。第3の発
明では、衣服画像の第3特徴点が、たとえば人物画像に
合わせて変形されたマネキン画像のような第1人物画像
の第1特徴点に一致するように変形され、変形された衣
服画像が第1人物画像に合成される。
In the second invention, for example, the skin color component of the second person image such as the person who wants to try on and the color component of the corresponding portion of the first person image such as the image of the mannequin are extracted to extract the two. The conversion factor is determined, which changes the color of the entire mannequin. As a result, the skin color of the mannequin image approaches the skin color of the person who wants to try on. In the third invention, the third feature point of the clothing image is transformed so as to match the first feature point of the first person image such as a mannequin image transformed according to the person image, and the transformed clothing is obtained. The image is combined with the first person image.

【0010】[0010]

【発明の効果】第1の発明によれば、第1輪郭情報およ
び第2輪郭情報に基づいて第1人物画像を変形するよう
にしたため、変形された第1人物画像に所望の衣服を合
成するようにすれば、その衣服を着た人物の画像を違和
感なく表示することができる。第2の発明によれば、第
1人物画像の色を第2人物画像の所望部分の色に変更す
るようにしたため、第1人物画像に所望の衣服を合成す
るようにすれば、その衣服を着た人物の画像を違和感な
く表示することができる。
According to the first aspect of the invention, since the first person image is deformed based on the first contour information and the second contour information, desired clothes are combined with the deformed first person image. By doing so, the image of the person wearing the clothes can be displayed without a sense of discomfort. According to the second invention, the color of the first person image is changed to the color of the desired portion of the second person image. Therefore, if desired clothes are combined with the first person image, the clothes can be changed. It is possible to display the image of the wearing person without any discomfort.

【0011】第3の発明によれば、衣服画像を第1人物
画像に合わせて変形した後合成するようにしたため、そ
の衣服を着た人物画像を違和感なく表示することができ
る。この発明の上述の目的,その他の目的,特徴および
利点は、図面を参照して行う以下の実施例の詳細な説明
から一層明らかとなろう。
According to the third aspect of the invention, since the clothes image is transformed according to the first person image and then combined, the person image wearing the clothes can be displayed without a feeling of strangeness. The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

【0012】[0012]

【実施例】図1を参照して、この実施例のシミュレーシ
ョン装置10はバス12を含み、これによってCPU1
4,作業用メモリ16,外部記憶装置18,ビデオメモ
リ20,A/D変換器22,キーボード24およびマウ
ス26が互いに接続される。また、ビデオメモリ20に
はD/A変換器28を介してCRT30が接続され、A
/D変換器22には画像入力装置32が接続される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Referring to FIG. 1, a simulation apparatus 10 of this embodiment includes a bus 12 by which a CPU 1
4, the working memory 16, the external storage device 18, the video memory 20, the A / D converter 22, the keyboard 24 and the mouse 26 are connected to each other. A CRT 30 is connected to the video memory 20 via a D / A converter 28,
An image input device 32 is connected to the / D converter 22.

【0013】外部記憶装置18には、図2に示すよう
に、特徴点(外形の特徴を示すための目印)が記された
マネキン34の画像データと図4に示すような試着のた
めの衣服画像データが書き込まれる。詳しく説明する
と、マネキン34の画像データを得るために、マネキン
34が画像入力装置32から所定距離だけ離れた位置に
配置され、画像入力装置32でその画像が取り込まれ、
そしてその画像がA/D変換される。さらに、衣服画像
データを抽出するために、上述の位置に配置したマネキ
ン34に図3に示すように衣服が着せられ、その画像が
CRT30に表示され、そしてその画像の衣服の輪郭が
マウス26でなぞられる。画像入力装置32はまた、図
5(A)に示すような試着を希望する人物36の画像を
取り込む。この人物36も上述のマネキン34と同じ位
置にマネキン34と同じポーズで配置され、その画像デ
ータがビデオメモリ20に書き込まれる。
In the external storage device 18, as shown in FIG. 2, image data of the mannequin 34 with characteristic points (marks for indicating the features of the outer shape) and clothes for try-on as shown in FIG. 4 are shown. Image data is written. More specifically, in order to obtain image data of the mannequin 34, the mannequin 34 is arranged at a position separated from the image input device 32 by a predetermined distance, and the image is captured by the image input device 32.
Then, the image is A / D converted. Further, in order to extract the clothes image data, clothes are put on the mannequin 34 arranged at the above-described position as shown in FIG. 3, the image is displayed on the CRT 30, and the outline of the clothes of the image is displayed by the mouse 26. Traced. The image input device 32 also captures an image of a person 36 who wants to try on as shown in FIG. This person 36 is also arranged at the same position as the above-mentioned mannequin 34 in the same pose as the mannequin 34, and the image data thereof is written in the video memory 20.

【0014】このようにして各種データが外部記憶装置
18およびビデオメモリ20に書き込まれた後、CPU
14は、マネキン34の体型および色を人物の体型およ
び肌の色に近づくように変更し、さらに変更したマネキ
ン34に合うように衣服の形状を変形し、マネキン34
に合成する。合成された画像データは、一旦ビデオメモ
リ20に書き込まれた後、D/A変換器28でアナログ
映像信号に変換され、CRT30から出力される。
After the various data are written in the external storage device 18 and the video memory 20 in this manner, the CPU
14 changes the body shape and color of the mannequin 34 so as to be closer to the body shape and skin color of the person, and further transforms the shape of the clothes so as to match the changed mannequin 34.
To synthesize. The combined image data is once written in the video memory 20, converted into an analog video signal by the D / A converter 28, and output from the CRT 30.

【0015】CPU14は、図6に示すフローに従って
衣服画像データを外部記憶装置18に書き込む。すなわ
ち、まずステップS1で、図3に示すように衣服を着せ
たマネキン34の画像をビデオメモリ20に書き込む。
次にステップS3で、外部記憶装置18に書き込まれた
マネキン画像データから特徴点を抽出して、これをビデ
オメモリ20に書き込んだマネキン画像の対応する位置
に付し、そのマネキン画像をCRT30から出力する。
その後、ステップS7でマネキン34が着ている衣服の
輪郭がマウス26によってなぞられたと判断すれば、ス
テップS9でその衣服の画像を抽出し、外部記憶装置1
8に書き込む。以上の処理を図3に示すそれぞれの衣服
を着せたマネキン34に対して行うことによって、複数
の衣服画像データが外部記憶装置18に書き込まれる。
The CPU 14 writes the clothing image data in the external storage device 18 according to the flow shown in FIG. That is, first, in step S1, the image of the mannequin 34 with clothes as shown in FIG. 3 is written in the video memory 20.
Next, in step S3, feature points are extracted from the mannequin image data written in the external storage device 18, the feature points are attached to the corresponding positions of the mannequin image written in the video memory 20, and the mannequin image is output from the CRT 30. To do.
Then, if it is determined in step S7 that the outline of the clothes worn by the mannequin 34 is traced by the mouse 26, the image of the clothes is extracted in step S9, and the external storage device 1
Write to 8. By performing the above-described processing on the mannequin 34 wearing the respective clothes shown in FIG. 3, a plurality of clothes image data is written in the external storage device 18.

【0016】CPU14はまた、図7〜図9に示すフロ
ーに従って試着を希望する人物に所望の衣服を着せるシ
ミュレーション処理を行う。すなわち、まずステップS
11で所定の位置に立たせた図5(A)に示す人物画像
を画像入力装置32で取り込んでビデオメモリ20に書
き込み、ステップS13でこの人物画像をCRT30へ
出力する。次に、ステップS15でマウス26によって
図5(B)に示すように人物画像の輪郭線上に付された
かどうか判断する。ここで注意すべきは、特徴点は衣服
の輪郭を避けて体の輪郭線上に付す必要がある点であ
る。そして、特徴点が付されると、すなわち特徴点がビ
デオメモリ20に書き込まれると、ステップS17で外
部記憶装置18から図2に示すマネキン34の画像デー
タを読み出し、作業用メモリ16に書き込む。続いて、
ステップS19で人物画像に付された特徴点に対応する
マネキン画像の特徴点を検索し、ステップS21で両画
像の特徴点が一致するようにマネキン画像を変形すると
ともにこれに合わせてマネキン画像の特徴点も移動させ
る。なお、マネキン画像の変形に際してはアフィン変換
などの手法を用いる。
The CPU 14 also carries out a simulation process of putting a desired clothes on a person who wants to try on the clothes according to the flow shown in FIGS. That is, first, step S
The image input device 32 captures the person image shown in FIG. 5 (A), which has been placed in a predetermined position at 11, and writes it in the video memory 20, and outputs this person image to the CRT 30 at step S13. Next, in step S15, it is determined whether the mouse 26 has been added to the outline of the person image as shown in FIG. 5B. It should be noted here that the feature points should be placed on the contour line of the body while avoiding the contour of the clothes. When the characteristic points are added, that is, when the characteristic points are written in the video memory 20, the image data of the mannequin 34 shown in FIG. 2 is read from the external storage device 18 and written in the working memory 16 in step S17. continue,
In step S19, the feature points of the mannequin image corresponding to the feature points attached to the person image are searched, and in step S21, the mannequin image is deformed so that the feature points of both images match, and the feature of the mannequin image is adjusted accordingly Also move the points. When transforming the mannequin image, a technique such as affine transformation is used.

【0017】また、マネキン画像の変形にあたっては、
図13のようにマネキン画像の領域を{(1,2,5,6),(2,
3,6,7),(3,4,7,8),(5,6,9,10)…}等の4点で囲まれる
領域に分けて、それぞれの領域を、身長・体重・胸囲・
ヒップ囲・座高等の体型情報に基づいて変化させるよう
にしてもよい。このとき利用する体型データとしては、
通産省の外郭団体である社団法人・人間生活工学センタ
ーが、計測している体型データ等が考えられる。
When transforming the mannequin image,
As shown in FIG. 13, the area of the mannequin image is {(1,2,5,6), (2,
3,6,7), (3,4,7,8), (5,6,9,10)…} etc. are divided into areas surrounded by 4 points, and each area is height, weight and chest measurement.・
It may be changed based on body shape information such as hip circumference and sitting height. As the body type data used at this time,
It is possible that the body shape data, etc. measured by the Human Life Engineering Center, an incorporated organization of the Ministry of International Trade and Industry.

【0018】マネキン画像の変形が終了すると、ステッ
プS23でCRT30に表示された人物画像の肌の部分
の輪郭がマウス26によってなぞられたかどうか判断す
る。そして“YES”であれば、ステップS25でその
輪郭内の画素の色成分(R,G,B)を算出するととも
に、ステップS27でマネキン画像において対応する画
素の色成分(R,G,B)を算出する。次に、ステップ
S29で数1に従って色成分の変換係数Ai を算出す
る。
When the deformation of the mannequin image is completed, it is determined in step S23 whether or not the contour of the skin portion of the human image displayed on the CRT 30 is traced by the mouse 26. If "YES", the color components (R, G, B) of the pixels within the contour are calculated in step S25, and the color components (R, G, B) of the corresponding pixels in the mannequin image are calculated in step S27. To calculate. Next, in step S29, the conversion coefficient A i of the color component is calculated according to equation 1.

【0019】[0019]

【数1】Ni =Ai ・Mi (1≦i≦n) Ni :人物画像の色成分 Mi :マネキン画像の色成分 変換係数Ai の算出について足の部分を用いて詳しく説
明すると、まずステップS25で図10(A)の各画素
について人物34の色成分N1 〜Nn を算出し、次にス
テップS27で図10(B)に示すように色成分N1
n に対応するマネキン34の色成分M1 〜Mn を算出
し、その後それぞれの画素について変換係数A1 〜An
を算出する。それぞれの色成分N1 〜Nn およびM1
n は、もちろん各色成分(R,G,B)に関して求め
られ、変換係数Ai も各色成分(R,G,B)に関して
求められる。このようにして変換係数が算出されると、
ステップS31で人物画像の肌の部分が新たに指定され
たかどうか判断し、“YES”であればステップS25
に戻るが、“NO”であれば、ステップS29で、算出
した全ての変換係数の平均値を各色成分(R,G,B)
毎に算出する。
[Formula 1] N i = A i · M i (1 ≦ i ≦ n) N i : Color component of person image M i : Color component of mannequin image Detailed calculation of conversion coefficient A i using foot part then, first, in step S25 for each pixel shown in FIG. 10 (a) calculates the color component n 1 to n n of the person 34, then the color component n 1 as shown in FIG. 10 (B) in steps S27 ~
The color components M 1 to M n of the mannequin 34 corresponding to N n are calculated, and then the conversion coefficients A 1 to A n are calculated for each pixel.
Is calculated. Each color component N 1 to N n and M 1 to
Of course, M n is obtained for each color component (R, G, B), and the conversion coefficient A i is also obtained for each color component (R, G, B). When the conversion coefficient is calculated in this way,
In step S31, it is determined whether or not the skin portion of the person image is newly designated. If "YES", step S25
However, if “NO”, in step S29, the average value of all the calculated conversion coefficients is calculated for each color component (R, G, B).
It is calculated every time.

【0020】その後、ステップS35でマネキン画像の
画素の色成分(R,G,B)を算出し、ステップS37
でこの色成分にステップS33で平均した変換係数を積
算する。続いてステップS39で、ステップS35で算
出した画素をこの積算値に置換し、ステップS41でマ
ネキン画像の全ての画素について置換処理をしたかどう
か判断する。ここで“NO”であればステップS35に
戻るが、“YES”であれば、図14に示すように、斜
線で示す顔の接合部の特徴点が一致するようにマネキン
画像の顔の接合部を変形して、顔部分の合成を行う。顔
の接合部では、マネキン画像の色成分(R1 ,G1 ,B
1 )と人物画像の色成分(R2 ,G2 ,B2 )に、数2
のように合成比率の値aを適用する。
Then, in step S35, the color components (R, G, B) of the pixels of the mannequin image are calculated, and in step S37.
Then, the conversion coefficient averaged in step S33 is added to this color component. Succeedingly, in a step S39, the pixel calculated in the step S35 is replaced with the integrated value, and in a step S41, it is determined whether or not the replacing process is performed for all the pixels of the mannequin image. If “NO” here, the process returns to step S35, but if “YES”, as shown in FIG. 14, the face joint part of the mannequin image is matched so that the feature points of the face joint part indicated by the diagonal lines match. Is transformed to synthesize the face part. At the face joint, the color components (R 1 , G 1 , B of the mannequin image are
1 ) and the color components (R 2 , G 2 , B 2 ) of the human image,
As shown in FIG.

【0021】[0021]

【数2】 R=a×R1 +(1−a)×R2 G=a×G1 +(1−a)×G2 B=a×B1 +(1−a)×B2 (ただし、0
≦a≦1) そして、図15に示すように、合成比率の値aを0から
1まで徐々に増加させて、両画像の色成分の混合の割合
を変えて、顔の接続部が自然に見えるようにスムージン
グ処理する。以上の処理によって、衣服を着ていない人
物36のシミュレーションデータが作成される。
R = a × R 1 + (1-a) × R 2 G = a × G 1 + (1-a) × G 2 B = a × B 1 + (1-a) × B 2 ( However, 0
≦ a ≦ 1) Then, as shown in FIG. 15, the value a of the composition ratio is gradually increased from 0 to 1, and the mixing ratio of the color components of both images is changed so that the face connecting portion is naturally formed. Smooth it so that you can see it. Through the above processing, the simulation data of the person 36 who is not wearing clothes is created.

【0022】続いて、ステップS49で外部記憶装置1
8に書き込んだ衣服画像データを読み出して、図4に示
すようにCRT30にマルチ画面表示する。ただし、画
面表示する前に、通常のキーワード検索や顧客が過去に
選択した好みなどによって衣服の種類が絞り込まれる。
その後、ステップS51でキーボード24ないしマウス
26によっていずれかの衣服が選択されたかどうか判断
し、“YES”であればステップS53で、選択された
衣服画像データを作業用メモリ16に書き込む。次に、
ステップS55でマネキン画像の特徴点に対応する衣服
画像の特徴点を検索し、ステップS57で両画像の特徴
点が一致するようにアフィン変換などによって衣服を変
形する。そして、ステップS59でこの衣服をマネキン
画像に合成しCRT30から出力する。これによって、
所望の衣服を人物36に着せたシミュレーションデータ
がCRT30から出力される。
Subsequently, in step S49, the external storage device 1
The clothing image data written in 8 is read out and multi-screen displayed on the CRT 30 as shown in FIG. However, before the screen is displayed, the type of clothes is narrowed down by a normal keyword search or the preference the customer has selected in the past.
Then, in step S51, it is determined whether any clothes are selected by the keyboard 24 or the mouse 26. If "YES", the selected clothes image data is written in the work memory 16 in step S53. next,
In step S55, the characteristic points of the clothes image corresponding to the characteristic points of the mannequin image are searched, and in step S57, the clothes are deformed by affine transformation or the like so that the characteristic points of both images match. Then, in step S59, the clothes are combined with the mannequin image and output from the CRT 30. by this,
The CRT 30 outputs simulation data in which desired clothes are put on the person 36.

【0023】動作において、試着を希望する人物36が
画像入力装置32から所定距離だけ離れた位置に立つ
と、CPU14はその人物画像を画像入力装置32によ
って取り込み、予め書き込んでおいたマネキン34の体
型および色をこの人物の体型および肌の色に近づくよう
に処理する。さらに、この人物36が試着を希望する衣
服をCRT30にマルチ画面表示し、その中から選択さ
れた衣服をマネキン34に合うように変形して合成す
る。
In operation, when the person 36 who wants to try on stands at a position separated from the image input device 32 by a predetermined distance, the CPU 14 takes in the image of the person by the image input device 32 and writes the body shape of the mannequin 34 written in advance. And the color are processed to approximate the figure and skin color of this person. Further, the clothing desired to be tried on by the person 36 is displayed on the CRT 30 in a multi-screen manner, and the clothing selected from the clothing is deformed and combined so as to fit the mannequin 34.

【0024】以上の説明では人物とマネキンの複数箇所
の肌の露出部から肌色の比率を算出したが、1箇所で代
表してもよい。また、この変換比率をマネキンの全体の
画像に乗じてもよい。この場合、人物画像の輪郭を指定
したり抽出したりする必要はない。この実施例によれ
ば、マネキン34を人物36の体型および肌の色に近づ
くように変形処理してこれに衣服を合成するようにした
ため、この人物36が実際にその衣服を着た状態をシミ
ュレーション表示することができる。
In the above description, the ratio of the skin color is calculated from the exposed parts of the skin at a plurality of places of the person and the mannequin, but it may be represented by one place. Also, this conversion ratio may be multiplied to the entire image of the mannequin. In this case, it is not necessary to specify or extract the outline of the person image. According to this embodiment, the mannequin 34 is deformed so as to approach the body shape and skin color of the person 36 and the clothes are combined with the mannequin 34. Therefore, the state in which the person 36 actually wears the clothes is simulated. Can be displayed.

【0025】この実施例ではステップS33で算出され
た変換係数の平均値を、ステップS37で単にマネキン
画像の各画素の色成分に積算するようにしたが、色成分
を変換すべき画素と人物画像の肌が露出している画素か
らの距離によってその肌の色成分に重み付けをし、重み
付けした値に変換係数の平均値とを積算して変換すべき
画素の色を再現するようにしてもよい。すなわち、たと
えば図11に示す人物36のA点の色成分を変換する場
合に、襟首,手および足から選択した代表点のR成分の
変換係数をそれぞれα1,α2およびα3とし、それぞ
れの代表点からA点までの距離の比がa:b:cであっ
たとする。この場合、A点における変換後のR成分
m ′は数3に従って求められる。
In this embodiment, the average value of the conversion coefficients calculated in step S33 is simply added to the color components of each pixel of the mannequin image in step S37. The skin color component may be weighted according to the distance from the pixel where the skin is exposed, and the weighted value may be multiplied by the average value of the conversion coefficient to reproduce the color of the pixel to be converted. . That is, for example, in the case of converting the color component of the point A of the person 36 shown in FIG. 11, the conversion coefficients of the R components of the representative points selected from the neck, the hand and the foot are α1, α2 and α3, respectively, and the respective representative points are It is assumed that the ratio of the distances from A to A is a: b: c. In this case, the converted R component R m ′ at the point A is obtained according to the equation (3).

【0026】[0026]

【数3】Rm ′={(1/a)/d}・α1・Rm
{(1/b)/d}・α2・Rm+{(1/c)/d}
・α3・Rmm :マネキン画像のA点におけるR成分 d=(1/a)+(1/b)+(1/c) また、代表点のG成分の変換係数をβ1,β2およびβ
3とし、B成分の変換係数をγ1,γ2およびγ3とす
ると、A点における変換後のG成分Gm ′およびB成分
m ′は数4および数5で求められる。
## EQU3 ## R m ′ = {(1 / a) / d} · α1 · R m +
{(1 / b) / d} · α2 · R m + {(1 / c) / d}
Α3 · R m R m : R component at point A of the mannequin image d = (1 / a) + (1 / b) + (1 / c) Further, the conversion coefficients of the G component at the representative point are β1, β2 and β
3 and the conversion coefficients of the B component are γ1, γ2, and γ3, the G component G m ′ and the B component B m ′ after conversion at the point A can be obtained by Equations 4 and 5.

【0027】[0027]

【数4】Gm ′={(1/a)/d}・β1・Gm
{(1/b)/d}・β2・Gm+{(1/c)/d}
・β3・Gmm :マネキン画像のA点におけるG成分 d=(1/a)+(1/b)+(1/c)
## EQU4 ## G m ′ = {(1 / a) / d} · β1 · G m +
{(1 / b) / d} · β2 · G m + {(1 / c) / d}
Β3 · G m G m : G component at point A of the mannequin image d = (1 / a) + (1 / b) + (1 / c)

【0028】[0028]

【数5】Bm ′={(1/a)/d}・γ1・Bm
{(1/b)/d}・γ2・Bm+{(1/c)/d}
・γ3・Bmm :マネキン画像のA点におけるB成分 d=(1/a)+(1/b)+(1/c) これによって、人物画像を画像入力装置32で取り込む
ときのライティング(Lighting)によって体の各部分で色
成分に違いが生じても、シミュレーションされる画像の
色を自然に変化させて表すことができる。
[Formula 5] B m ′ = {(1 / a) / d} · γ1 · B m +
{(1 / b) / d} · γ2 · B m + {(1 / c) / d}
.Gamma.3.B m B m : B component at the point A of the mannequin image d = (1 / a) + (1 / b) + (1 / c) As a result, lighting when the human image is captured by the image input device 32 Even if there is a difference in color components between parts of the body due to (Lighting), the color of the simulated image can be naturally changed and represented.

【0029】より詳しく説明すると、図8のステップS
33〜S41に代えて図12に示すフローを処理する。
すなわち、ステップS31で“NO”であれば、ステッ
プS61でマネキン画像に含まれる1画素を指定し、そ
の色成分Rm ,Gm およびB m を算出する。次に、ステ
ップS63で、マウス26でなぞられた輪郭内の任意の
画素を代表点として指定し、ステップS65でこの代表
点からステップS61で指定した画素までの距離の比を
算出する。続いて、ステップS67で数3〜数5に従っ
て色成分Rm ′,Gm ′およびBm ′を算出し、ステッ
プS69で、ステップS61で指定した画素の色成分R
m ,Gm およびBm をこの色成分Rm ′,Gm ′および
m ′に置換する。その後、ステップS71で全ての画
素を処理したかどうか判断し、“NO”であればステッ
プS61に戻るが、“YES”であればステップS43
に移行する。
More specifically, step S in FIG.
The flow shown in FIG. 12 is processed instead of 33 to S41.
That is, if “NO” in the step S31, the step
In S61, specify one pixel included in the mannequin image and
Color component Rm, GmAnd B mIs calculated. Next,
At step S63, an arbitrary contour within the contour traced by the mouse 26 is selected.
The pixel is designated as the representative point, and the representative point is selected in step S65.
The ratio of the distance from the point to the pixel specified in step S61
calculate. Then, in step S67, follow the formulas 3-5.
Color component Rm′, Gm'And Bm′ Is calculated and
In step S69, the color component R of the pixel specified in step S61
m, GmAnd BmThe color component Rm′, Gm'and
Bm’ Then, in step S71, all images
Judge whether the element has been processed, and if “NO”, step
Return to step S61, but if "YES", the step S43.
Move to.

【0030】なお、この実施例ではCRT30に表示さ
れた人物画像に特徴点を付す際に全ての特徴点を付すよ
うにしたが、代表的な点をいくつか指定し、その間を人
物の体の統計データなどに基づいて自動的に補間した
り、さらには衣服も含めた人物34の輪郭線を抽出して
人物の体の統計データなどに基づいて全ての特徴点を自
動的に指定するようにしてもよい。また、マネキン34
の画像データは図6のステップS17で作業用メモリ1
6に書き込むようにしたが、シミュレーション装置10
を起動したときに予め作業用メモリに書き込むようにし
てもよい。さらに、マネキン34の輪郭を示す特徴点は
マネキン34自身に付すようにしたが、マネキン画像を
入力後マウス26を操作して手動で付するようにしても
よい。
In this embodiment, all the characteristic points are added when the characteristic points are added to the person image displayed on the CRT 30. However, some representative points are designated, and a part of the body of the person is specified between them. Automatically interpolating based on statistical data or the like, and further extracting the contour line of the person 34 including clothes to automatically specify all the feature points based on the statistical data of the body of the person. May be. Also, the mannequin 34
Image data of the work memory 1 in step S17 of FIG.
6 is written in the simulation device 10
May be written in the work memory in advance when is started. Further, the characteristic points indicating the contour of the mannequin 34 are attached to the mannequin 34 itself, but may be attached manually by operating the mouse 26 after inputting the mannequin image.

【0031】さらにまた、この実施例では顔の部分だけ
マネキン画像に合成するようにしたが、襟首,手および
足などの人物画像において肌が露出している部分につい
ても、人物画像から切り出してマネキン画像に合成し、
スムージング処理するようにしてもよい。また、この実
施例では変換係数を色成分(R,G,B)に対して求め
るようにしたが、輝度成分や色相成分に対して求めるよ
うにしてもよい。さらに、この実施例では人物画像とマ
ネキン画像との間で1画素毎に変換係数を求めるように
したが、各画素の変換係数の算出に当たって、まずマネ
キン画像において色成分が同一の画素を検出し、この画
素に対応する人物画像の画素の色成分の値を平均し、そ
してこの平均値との間で変換係数を求めるようにしても
よい。また、請求項8のように色成分を変更してもよ
い。
Furthermore, in this embodiment, only the face portion is combined with the mannequin image. However, the exposed portion of the human image such as the neck, hands and feet is cut out from the human image and cut into the mannequin. Combine it into an image,
You may make it perform a smoothing process. Further, in this embodiment, the conversion coefficient is calculated for the color components (R, G, B), but it may be calculated for the luminance component and the hue component. Further, in this embodiment, the conversion coefficient is obtained for each pixel between the person image and the mannequin image. However, in calculating the conversion coefficient of each pixel, first, the pixels having the same color component are detected in the mannequin image. , The color component values of the pixels of the person image corresponding to this pixel may be averaged, and the conversion coefficient may be obtained from this average value. Moreover, you may change a color component like Claim 8.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例を示すブロック図である。FIG. 1 is a block diagram showing one embodiment of the present invention.

【図2】マネキン画像を示す図解図である。FIG. 2 is an illustrative view showing a mannequin image.

【図3】マネキン画像に着せた衣服画像を示す図解図で
ある。
FIG. 3 is an illustrative view showing a clothing image worn on a mannequin image.

【図4】衣服を着せたマネキンを示す外観図である。FIG. 4 is an external view showing a mannequin wearing clothes.

【図5】(A)および(B)は人物画像を示す外観図で
ある。
5A and 5B are external views showing a person image.

【図6】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 6 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図7】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 7 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図8】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 8 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図9】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 9 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図10】人物画像およびマネキン画像の足部分の対応
する画素を示す図解図である。
FIG. 10 is an illustrative view showing corresponding pixels of a foot portion of a human image and a mannequin image.

【図11】人物画像を示す外観図である。FIG. 11 is an external view showing a person image.

【図12】この発明の他の実施例の動作の一部を示すブ
ロック図である。
FIG. 12 is a block diagram showing a part of the operation of another embodiment of the present invention.

【図13】図1実施例の動作の一部を示す図解図であ
る。
FIG. 13 is an illustrative view showing a part of the operation of the embodiment in FIG. 1;

【図14】図1実施例の動作の一部を示す図解図であ
る。
FIG. 14 is an illustrative view showing a part of the operation of the embodiment in FIG.

【図15】図1実施例の動作の一部を示す図解図であ
る。
FIG. 15 is an illustrative view showing a part of the operation of the embodiment in FIG. 1;

【符号の説明】[Explanation of symbols]

10 …シミュレーション装置 14 …CPU 16 …作業用メモリ 18 …外部記憶装置 20 …ビデオメモリ 24 …キーボード 26 …マウス 30 …CRT 32 …画像入力装置 10 ... Simulation device 14 ... CPU 16 ... Working memory 18 ... External storage device 20 ... Video memory 24 ... Keyboard 26 ... Mouse 30 ... CRT 32 ... Image input device

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】(a) 第1特徴点とともに第1人物画像をメ
モリし、 (b) 前記第1特徴点に対応する第2人物画像の第2特徴
点をメモリし、そして (c) 前記第1特徴点および前記第2特徴点に基づいて前
記第1人物画像を変形する、試着シミュレーション方
法。
1. A memory for storing a first person image together with a first feature point, a memory for storing a second feature point of a second person image corresponding to the first feature point, and a memory for storing the second feature point. A fitting simulation method for deforming the first person image based on the first feature point and the second feature point.
【請求項2】前記ステップ(c) は、(c-1) 前記第1特徴
点に対応する第2特徴点を検索し、(c-2) 対応する第1
特徴点および第2特徴点が一致するように前記第1人物
画像を変形し、(c-3) 変形に合わせて前記第1特徴点を
移動させる、請求項1記載の試着シミュレーション方
法。
2. The step (c) comprises (c-1) searching for a second feature point corresponding to the first feature point, and (c-2) corresponding to the first feature point.
2. The fitting simulation method according to claim 1, wherein the first person image is deformed so that the feature points and the second feature points match, and (c-3) the first feature points are moved in accordance with the deformation.
【請求項3】(d) 前記ステップ(c) で変形した第1人物
画像の顔部分を前記第2人物画像の顔部分と置換する、
請求項1または2記載の試着シミュレーション方法。
3. (d) replacing the face portion of the first person image transformed in step (c) with the face portion of the second person image,
The fitting simulation method according to claim 1.
【請求項4】前記ステップ(d) は、(d-1) 前記第2人物
画像の顔部分の一部が前記第1人物画像と重なるように
置換し、(d-2) 重なる部分における前記第1人物画像の
色成分と前記第2人物画像の色成分とに所定の重み付け
をかけて前記色成分を合成する、請求項3記載の試着シ
ミュレーション方法。
4. The step (d) comprises: (d-1) substituting a part of the face portion of the second person image so as to overlap with the first person image, and (d-2) performing the replacement in the overlapping portion. 4. The fitting simulation method according to claim 3, wherein the color components of the first human image and the color components of the second human image are weighted with a predetermined weight to synthesize the color components.
【請求項5】(a) 第2人物画像の第2所定部分に含まれ
る画素の第2色成分を抽出し、 (b) 前記第2所定部分に対応する第1人物画像の第1所
定部分に含まれる画素の第1色成分を抽出し、 (c) 前記第1色成分および前記第2色成分に基づいて変
換係数を算出し、そして (d) 前記第1人物画像に含まれる画素の色成分を前記変
換係数に基づいて変更する、試着シミュレーション方
法。
5. (a) extracting a second color component of a pixel included in a second predetermined portion of the second human image, and (b) a first predetermined portion of the first human image corresponding to the second predetermined portion. Extracting a first color component of a pixel included in, a (c) calculating a conversion coefficient based on the first color component and the second color component, and (d) a pixel included in the first human image. A fitting simulation method for changing a color component based on the conversion coefficient.
【請求項6】前記第1所定部分および前記第2所定部分
は複数の画素を含み、前記ステップ(c) は、この複数の
画素の平均の前記変換係数を算出し、前記ステップ(d)
は、(d-1) 前記第1人物画像に含まれる画素の色成分に
前記変換係数を掛算し、(d-2) 掛算結果を当該画素の色
成分とする、請求項5記載の試着シミュレーション方
法。
6. The first predetermined portion and the second predetermined portion include a plurality of pixels, and the step (c) calculates the transformation coefficient of the average of the plurality of pixels, and the step (d)
The fitting simulation according to claim 5, wherein (d-1) the color component of the pixel included in the first person image is multiplied by the conversion coefficient, and (d-2) the multiplication result is the color component of the pixel. Method.
【請求項7】前記第1人物画像および前記第2人物画像
は少なくとも2箇所の前記第1所定部分および前記第2
所定部分を含み、前記ステップ(c) は、前記第2色成分
を前記第1色成分で割算することによって前記変換係数
を算出し、前記ステップ(d)は、前記変換係数,前記ス
テップ(b) で第1色成分を算出した画素から前記第1人
物画像に含まれる画素までの距離の比および当該第1人
物画像に含まれる画素の第1色成分に基づいて当該第1
人物画像に含まれる画素の第1色成分を変更する、請求
項5記載の試着シミュレーション方法。
7. The first person image and the second person image are at least two locations of the first predetermined portion and the second person image.
Including a predetermined portion, the step (c) calculates the conversion coefficient by dividing the second color component by the first color component, and the step (d) includes the conversion coefficient, the step ( Based on the ratio of the distance from the pixel for which the first color component was calculated in b) to the pixel included in the first person image and the first color component of the pixel included in the first person image,
The fitting simulation method according to claim 5, wherein the first color component of the pixels included in the person image is changed.
【請求項8】前記第1人物画像および前記第2人物画像
は少なくとも第1,第2の2箇所の前記第1所定部分お
よび前記第2所定部分を含み、 前記ステップ(c) は、(c-1) それぞれの箇所で前記第2
色成分と前記第1色成分との関連性を示す前記変換係数
を算出し、前記ステップ(d) は、(d-1) 前記第1人物画
像に含まれる画素の色成分を、当該画素から前記第1の
箇所までの距離と、この第1の箇所で算出した前記変換
係数とに基づいて変更し、そして、(d-2) 変更した前記
第1人物画像に含まれる画素の色成分を、当該画素から
前記第2の箇所までの距離と、この第2の箇所で算出し
た前記変換係数に基づいて再度変更する、請求項5記載
の試着シミュレーション方法。
8. The first person image and the second person image include at least first and second predetermined portions and a second predetermined portion, and the step (c) includes (c -1) The second in each place
The conversion coefficient indicating the relationship between the color component and the first color component is calculated, and the step (d) includes (d-1) determining the color component of the pixel included in the first human image from the pixel. The color component of the pixel included in the changed first person image is changed based on the distance to the first place and the conversion coefficient calculated at the first place, and (d-2) The fitting simulation method according to claim 5, wherein the change is performed again based on the distance from the pixel to the second location and the conversion coefficient calculated at the second location.
【請求項9】(a) 第3特徴点とともに衣服画像をメモリ
し、 (b) 第1人物画像の第1特徴点と前記第3特徴点とに基
づいて前記衣服画像を変形し、 (c) 変形した衣服画像を前記第1人物画像に合成する、
試着シミュレーション方法。
9. A clothing image is stored together with a third feature point, and a clothing image is transformed based on the first feature point and the third feature point of a first person image. ) Combining the deformed clothes image with the first person image,
Try-on simulation method.
【請求項10】前記ステップ(b) は(b-1) 前記第3特徴
点に対応する前記第1特徴点を検索し、(b-2) 対応する
第1特徴点および第3特徴点が一致するように前記衣服
画像を変形する、請求項9記載の試着シミュレーション
方法。
10. The step (b) includes (b-1) searching the first feature point corresponding to the third feature point, and (b-2) finding the corresponding first feature point and third feature point. The fitting simulation method according to claim 9, wherein the clothing images are transformed so as to match.
JP8003490A 1995-08-04 1996-01-12 Clothes fitting simulation method Pending JPH09106419A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8003490A JPH09106419A (en) 1995-08-04 1996-01-12 Clothes fitting simulation method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP19952895 1995-08-04
JP7-199528 1995-08-04
JP8003490A JPH09106419A (en) 1995-08-04 1996-01-12 Clothes fitting simulation method

Publications (1)

Publication Number Publication Date
JPH09106419A true JPH09106419A (en) 1997-04-22

Family

ID=26337078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8003490A Pending JPH09106419A (en) 1995-08-04 1996-01-12 Clothes fitting simulation method

Country Status (1)

Country Link
JP (1) JPH09106419A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160095A (en) * 1999-12-03 2001-06-12 Soft Ryutsu Kk Virtual mall system, commodity information transmission method for the mall system, recording medium with computer program for realizing the mall system recorded thereon and a recording medium with computer program recorded thereon for allowing external computer accessing the mall system to display commodity
KR100431788B1 (en) * 2000-11-02 2004-05-17 주식회사 디엔엠 테크놀로지 A method for simulating virtual clothes
GB2473503A (en) * 2009-09-15 2011-03-16 Metail Ltd Image processing with keying of foreground objects
JP2012108806A (en) * 2010-11-18 2012-06-07 Toshiba Tec Corp Try-on system and program
WO2015056552A1 (en) * 2013-10-17 2015-04-23 セーレン株式会社 Fitting support device and method
JP2017138913A (en) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント Image generation system and program
WO2021050821A1 (en) * 2019-09-11 2021-03-18 Ovad Custom Stages, Llc Automatic adjustable mannequin

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160095A (en) * 1999-12-03 2001-06-12 Soft Ryutsu Kk Virtual mall system, commodity information transmission method for the mall system, recording medium with computer program for realizing the mall system recorded thereon and a recording medium with computer program recorded thereon for allowing external computer accessing the mall system to display commodity
KR100431788B1 (en) * 2000-11-02 2004-05-17 주식회사 디엔엠 테크놀로지 A method for simulating virtual clothes
US9591236B2 (en) 2009-09-15 2017-03-07 Metail Limited System and method for image processing and generating a body model
GB2473503A (en) * 2009-09-15 2011-03-16 Metail Ltd Image processing with keying of foreground objects
US8605148B2 (en) 2009-09-15 2013-12-10 Metail Limited System and method for image processing and generating a body model
GB2473503B (en) * 2009-09-15 2015-02-11 Metail Ltd System and method for image processing
US10037618B2 (en) 2009-09-15 2018-07-31 Metail Limited System and method for image processing and generating a body model
JP2012108806A (en) * 2010-11-18 2012-06-07 Toshiba Tec Corp Try-on system and program
WO2015056552A1 (en) * 2013-10-17 2015-04-23 セーレン株式会社 Fitting support device and method
JP2015079362A (en) * 2013-10-17 2015-04-23 セーレン株式会社 Try-on support device and method
US10147241B2 (en) 2013-10-17 2018-12-04 Seiren Co., Ltd. Fitting support device and method
JP2017138913A (en) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント Image generation system and program
WO2021050821A1 (en) * 2019-09-11 2021-03-18 Ovad Custom Stages, Llc Automatic adjustable mannequin
GB2604733A (en) * 2019-09-11 2022-09-14 Ovad Custom Stages Llc Automatic adjustable mannequin

Similar Documents

Publication Publication Date Title
JP4473754B2 (en) Virtual fitting device
US20240087471A1 (en) Information processing apparatus, information processing method, and storage medium
US11640672B2 (en) Method and system for wireless ultra-low footprint body scanning
US6490534B1 (en) Camera measurement system
US6031539A (en) Facial image method and apparatus for semi-automatically mapping a face on to a wireframe topology
US7346421B2 (en) Production of made to order clothing
US6310627B1 (en) Method and system for generating a stereoscopic image of a garment
CN109598798B (en) Virtual object fitting method and virtual object fitting service system
JP5579014B2 (en) Video information processing apparatus and method
US7242999B2 (en) Method and apparatus for identifying virtual body profiles
US10311508B2 (en) Garment modeling simulation system and process
JPH10340282A (en) Device and method for virtual try-on of clothes and clothes manufacturing device
JP6373026B2 (en) Image processing apparatus, image processing system, image processing method, and program
US20020024517A1 (en) Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space
US20020107762A1 (en) Electronic commerce system, commodity fitness judgment apparatus, and commodity fitness judgment method
JP2000003376A (en) Correction method for clothes and correction device using the method
JPH0944556A (en) Trial wearing simulation method
US20230248099A1 (en) Method and device for providing at least one cutting pattern for an article of clothing to be produced individually for a customer
JP6262105B2 (en) Image processing apparatus, image processing system, image processing method, and program
WO2019138877A1 (en) Motion-analyzing system, motion-analyzing device, motion analysis method, and motion analysis program
JP2016004564A (en) Try-on support system using augmented reality
JPH09106419A (en) Clothes fitting simulation method
Perales et al. A system for human motion matching between synthetic and real images based on a biomechanic graphical model
KR100514757B1 (en) System and method for purchasing clothes by using picture compound and recognition on network
JPH09102033A (en) Picture synthesis method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030722