JPH0944556A - Trial wearing simulation method - Google Patents

Trial wearing simulation method

Info

Publication number
JPH0944556A
JPH0944556A JP7198498A JP19849895A JPH0944556A JP H0944556 A JPH0944556 A JP H0944556A JP 7198498 A JP7198498 A JP 7198498A JP 19849895 A JP19849895 A JP 19849895A JP H0944556 A JPH0944556 A JP H0944556A
Authority
JP
Japan
Prior art keywords
image
person
clothes
clothing
simulation method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7198498A
Other languages
Japanese (ja)
Inventor
Shigeki Harada
茂樹 原田
Yoji Sugiura
洋治 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP7198498A priority Critical patent/JPH0944556A/en
Publication of JPH0944556A publication Critical patent/JPH0944556A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the difference between an impression on a trial wearing simulation image and an impression of actual wearing as for trial wearing simulation. SOLUTION: A clothing image is obtained by being cut out of an image of a dummy wearing clothing. Then the basic human image of the dummy (nearly naked) and the clothing image are previously written in an external storage device 18. Then the basic human image of this dummy is deformed according information on the body build of a person who tries clothing on. Further, the clothing image is also deformed according to the information on the body build of the trying person or the deformed basic human image. Then the deformed images are both put together in one.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は試着シミュレーシ
ョン方法に関する。特に、試着を希望する衣類の着用時
の仮想映像を表示する、試着シミュレーション方法に関
する。特に、試着を希望する人物の画像に所望の衣服を
合成して表示する、試着シミュレーション方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a fitting simulation method. In particular, the present invention relates to a fitting simulation method for displaying a virtual image of wearing clothes for which fitting is desired. In particular, the present invention relates to a fitting simulation method for displaying desired clothes by combining them with an image of a person who wants to try them on.

【0002】[0002]

【従来の技術】従来のこの種の試着シミュレーション方
法の一例が、平成6年7月8日に出願公開された特開平
6−187398号公報(G06F 15/60)に開
示されている。この従来技術は、撮像部によって捉えら
れた試着を希望する人物の画像から輪郭線を抽出し、そ
の輪郭線上の所定の位置に2つの点を付し、そして、そ
の間隔に基づいて試着しようとする衣服の画像を拡大ま
たは縮小して、その人物の画像に合成しようとするもの
である。
2. Description of the Related Art An example of a conventional fitting simulation method of this type is disclosed in Japanese Patent Application Laid-Open No. 6-187398 (G06F 15/60) filed on July 8, 1994. In this conventional technique, a contour line is extracted from an image of a person who wants to be tried on by the image pickup unit, two points are attached at predetermined positions on the contour line, and try-on is made based on the interval. It is intended to enlarge or reduce the image of clothes to be combined with the image of the person.

【0003】[0003]

【発明が解決しようとする課題】しかし、このような従
来技術では、単に2つの点の間隔に基づいて、衣服を着
用した首から下の画像を拡大または縮小しようとするも
のであるため、試着を希望する人物の体型とは異なり、
実際の着用時の印象とは異なるという問題点があった。
However, in such a conventional technique, an attempt is made to enlarge or reduce the image below the neck of the wearer based on the distance between the two points. Unlike the figure of the person who wants
There was a problem that it was different from the impression when actually worn.

【0004】つまり、衣服の合成時には、以下の不都合
がある。試着希望者の裸体を撮影し、この画像に衣服画
像を合成すればよいが、このためには、試着希望者は衣
服画像がフィットする予め定められた正確なポーズ(姿
勢)で撮影されなくてはならない。また、時計・眼鏡等
の小さな装飾品を合成する場合は、当然、この装飾品が
取り付けられる体の一部のサイズに合わせて、この装飾
品の画像を一様に変形させて、この一部の画像に張り付
けるだけでよい。しかし、衣服画像を合成する場合に
は、体型およびポーズに合わせて、この衣服画像を大幅
に変形させなくてはならず、試着シミュレーション装置
において負荷が大きく、また、不自然な合成画像となる
可能性が高まる。
That is, there are the following inconveniences when synthesizing clothes. The nude of the person who wants to try on the clothes may be photographed, and the clothes image may be combined with this image. Don't In addition, when synthesizing small ornaments such as watches and glasses, naturally, the image of this ornament is uniformly deformed according to the size of the part of the body to which this ornament is attached, All you have to do is paste it on the image. However, when synthesizing clothes images, this clothes image must be significantly deformed according to the body shape and pose, which puts a heavy load on the try-on simulation device, and can result in an unnatural synthesized image. The nature is enhanced.

【0005】それゆえに、この発明の主たる目的は、試
着を望む人物の実際の着用時との違和感の少ない、試着
シミュレーション画像を出力することのできる試着シミ
ュレーション方法を提供することである。
Therefore, a main object of the present invention is to provide a try-on simulation method capable of outputting a try-on simulation image with less discomfort when the person who wants to try on the wearer actually wears it.

【0006】[0006]

【課題を解決するための手段】本発明は、基本的人物画
像と、この基本的人物画像の姿勢にフィットする衣服画
像を予め格納し、この両画像を、試着対象者の体型デー
タに応じて、変形して、合成するものである。本発明
は、(a) 所定位置に配置した第1人物画像を第1輪郭情
報とともにメモリし、(b) 前記所定位置に配置した第2
人物画像を第2輪郭情報とともにメモリし、(c) 前記所
定位置に配置しかつ衣服を着せた第1人物画像の衣服画
像を第3輪郭情報とともにメモリし、(d) 前記第1輪郭
情報,前記第2輪郭情報および前記第3輪郭情報に基づ
いて前記第1人物画像および前記衣服画像を変形し、そ
して(e) 変形した第1人物画像に変形した衣服画像を合
成する、試着シミュレーション方法である。
According to the present invention, a basic human image and a clothing image that fits the posture of the basic human image are stored in advance, and both images are stored according to the figure data of the person to be tried on. , Transform and combine. According to the present invention, (a) a first person image arranged at a predetermined position is stored together with first contour information, and (b) a second person image arranged at the predetermined position.
The person image is stored together with the second contour information, and (c) the clothing image of the first person image which is arranged at the predetermined position and is dressed is stored together with the third contour information, and (d) the first contour information, According to a fitting simulation method, the first person image and the clothing image are transformed based on the second contour information and the third contour information, and (e) the transformed first person image is combined with the transformed clothing image. is there.

【0007】また、本発明は、(a) 基本的人物画像と、
この基本的人物画像のポーズに対応した複数の衣服画像
とを予めメモリし、(b) 試着対象人物の体型を表す体型
情報をメモリし、(c) この体型情報に基づいて、前記基
本的人物画像を変形するとともに、この変形された基本
的人物画像に基づいて、前記衣服画像を変形し、(d)変
形した基本的人物画像に、変形した衣服画像を合成す
る、試着シミュレーション方法である。
The present invention also provides (a) a basic portrait image,
A plurality of clothes images corresponding to the poses of the basic person image are stored in advance, (b) body shape information representing the body shape of the person to be tried on is stored, and (c) based on this body shape information, the basic person image is stored. It is a fitting simulation method in which an image is deformed, the clothes image is deformed based on the deformed basic person image, and (d) the deformed clothes image is combined with the deformed basic person image.

【0008】[0008]

【作用】本発明では、試着対象者の体型情報により、合
成用の基本的人物画像と合成用の衣服画像とを変形し
て、合成している。また、本発明では、たとえば、第1
輪郭情報(第1特徴点)が付されたマネキン画像のよう
な第1人物画像がメモリされ、たとえば試着を望む人物
の画像のような第2人物画像が、第2輪郭情報(第2特
徴点)を付されてメモリされ、さらに衣服を着せた第1
人物画像の衣服画像が第3輪郭情報(第3特徴点)を付
してメモリされる。その後、たとえば第1輪郭情報が第
2輪郭情報に一致するように第1人物画像および第1輪
郭情報が変形され、変形された第1輪郭情報に第3輪郭
情報が一致するように衣服画像が変形される。そして、
変形された衣服画像が変形された第1人物画像に合成さ
れる。
In the present invention, the basic person image for composition and the clothes image for composition are transformed and combined according to the body type information of the person to be tried on. In the present invention, for example, the first
A first person image such as a mannequin image to which contour information (first feature points) is attached is stored in memory, and a second person image such as an image of a person who wants to try on the second contour information (second feature points). ) Is attached and memorized, and the first piece of clothing
The clothing image of the person image is stored with the third contour information (third feature point). Then, for example, the first person image and the first contour information are modified so that the first contour information matches the second contour information, and the clothing image is modified so that the third contour information matches the modified first contour information. Be transformed. And
The deformed clothing image is combined with the deformed first person image.

【0009】また、本発明では、たとえば、マネキン画
像のような基本的人物画像がメモリされ、さらに衣服を
着せたマネキンの画像から抽出された衣服画像がメモリ
される。その後、たとえば、試着の対象人物の体型情報
がメモリされ、この体型情報に応じて、基本的人物画像
が変形される。そして、この基本的人物画像に対応する
ように衣服画像が変形される。そして、変形された衣服
画像が、変形された基本的人物画像に合成される。
Further, in the present invention, for example, a basic person image such as a mannequin image is stored, and a clothing image extracted from the image of the mannequin wearing clothing is stored. Then, for example, the body type information of the person to be tried on is stored in the memory, and the basic person image is transformed according to the body type information. Then, the clothing image is transformed so as to correspond to the basic person image. Then, the deformed clothing image is combined with the deformed basic person image.

【0010】[0010]

【発明の効果】本発明によれば、第2人物画像に合わせ
て変形した第1人物画像に形を変形させた衣服画像を合
成するようにしたため、装着を希望する人物の画像と衣
服画像との間に違和感のない試着シミュレーション画像
を出力することができる。また、本発明によれば、試着
対象者の体型情報に合わせて変形した合成用の基本的人
物画像と、変形させた合成用の衣服画像とを合成するよ
うにしたため、試着対象者が実際に衣服を装着した場合
に近い試着シミュレーション画像を出力することができ
る。
According to the present invention, the first person image deformed according to the second person image is combined with the deformed clothes image, so that the image of the person desired to wear and the clothes image are combined. It is possible to output a try-on simulation image that does not cause a feeling of strangeness. Further, according to the present invention, the basic person image for composition which is deformed according to the body type information of the person to be tried-on and the deformed clothing image for composition are combined, so that the person to be tried on actually It is possible to output a try-on simulation image that is similar to wearing clothes.

【0011】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

【0012】[0012]

【実施例】図1を参照して、この実施例の各部を説明す
る。この実施例のシミュレーション装置10はバス12
を含み、これによってCPU14,作業用メモリ16,
外部記憶装置18,ビデオメモリ20,A/D変換器2
2,キーボード24およびマウス26が互いに接続され
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Each part of this embodiment will be described with reference to FIG. The simulation apparatus 10 of this embodiment has a bus 12
Including a CPU 14, a working memory 16,
External storage device 18, video memory 20, A / D converter 2
2. A keyboard 24 and a mouse 26 are connected to each other.

【0013】また、ビデオメモリ20にはD/A変換器
28を介してCRT30が接続され、A/D変換器22
にはカメラ等の画像入力装置32が接続される。外部記
憶装置18には、図2Aに示されるマネキン34の画像
データ(基本的人物画像・第1人物画像)、このマネキ
ンによる人物画像の特徴点のデータ、衣服画像データ、
衣服画像の特徴点のデータ、試着希望者(試着対象者)
の画像データ(第2人物画像)、この第2人物画像の特
徴点のデータが記憶される。
A CRT 30 is connected to the video memory 20 via a D / A converter 28, and an A / D converter 22 is provided.
An image input device 32 such as a camera is connected to the. In the external storage device 18, image data of the mannequin 34 (basic person image / first person image) shown in FIG. 2A, data of characteristic points of the person image by this mannequin, clothing image data,
Data of feature points of clothes images, people who want to try on clothes (people to try on)
Image data (second person image) and feature point data of the second person image are stored.

【0014】詳しく説明すると、裸体に近いマネキン3
4の画像データを得るために、図2Aに示されるマネキ
ン34が画像入力装置32から所定距離だけ離れた位置
に配置され、画像入力装置32からその画像が取り込ま
れ、そして、その画像がA/D変換されてメモリされ
る。次に、このマネキン画像の特徴点のデータを得る。
このために、マネキンの特徴点となるべき位置に目印を
書き込む。目印を書き込まれた図2Bに示されるマネキ
ン34を、画像入力装置32から所定距離だけ離れた前
述と同じ位置に配置して、画像入力装置32からその画
像が取り込まれ、そして、その画像から前記目印の位置
を特徴点として、抽出する。この抽出は、画像認識で行
ってもよい。また、図2Bの画像を表示して、この目印
の位置をマウスでクリックすることにより、抽出しても
よい。さらには、図2Aのマネキン画像を表示しておい
て、マウスでクリックすることにより、抽出してもよ
い。
Explaining in detail, the mannequin 3 close to a naked body
2A, the mannequin 34 shown in FIG. 2A is placed at a position separated from the image input device 32 by a predetermined distance, the image is captured from the image input device 32, and the image is A / It is D-converted and stored in memory. Next, the data of the characteristic points of this mannequin image is obtained.
For this purpose, a mark is written at a position to be a characteristic point of the mannequin. The mannequin 34 shown in FIG. 2B in which the mark is written is arranged at the same position as described above, which is separated from the image input device 32 by a predetermined distance, and the image is captured from the image input device 32, and from the image, The position of the mark is extracted as a feature point. This extraction may be performed by image recognition. Alternatively, the image of FIG. 2B may be displayed and the position of this mark may be extracted by clicking with the mouse. Furthermore, the mannequin image of FIG. 2A may be displayed and then extracted by clicking with the mouse.

【0015】この図2Aの画像データと、この画像の各
部に対応した特徴点のデータはセットで、外部記憶装置
18に格納される。次に、衣服画像のデータの格納につ
いて述べる。まず、このマネキンに衣服を着用させる
と、図3Aの如くなる。なお、この画像に先程求めた特
徴点を重ねて表示すると図3Bの如くなる。図3Aの画
像をCRT30に表示し、そして、この画像の衣服の輪
郭をマウス26でなぞる。これにより、衣服画像を切り
抜く。この衣服画像のデータは、特徴点のデータととも
に格納される。
The image data of FIG. 2A and the data of the characteristic points corresponding to each part of this image are stored as a set in the external storage device 18. Next, storage of clothing image data will be described. First, when this mannequin is put on clothes, it becomes as shown in FIG. 3A. It is to be noted that when the feature points obtained previously are displayed on this image in a superimposed manner, it becomes as shown in FIG. 3B. The image of FIG. 3A is displayed on the CRT 30, and the outline of the clothes in this image is traced with the mouse 26. Thereby, the clothes image is cut out. The data of the clothing image is stored together with the data of the characteristic points.

【0016】さらに、試着対象者の画像データの格納に
ついて述べる。画像入力装置32は、図5Aに示すよう
な試着を希望する人物36の画像を取り込む。この人物
36も上述のマネキン34と同じ位置にマネキン34と
同じポーズ(姿勢)で立つのが望ましい。この画像デー
タがビデオメモリ20に書き込まれ、表示される。そし
て、図5Bに示すように、マウスにより、図2Bの特徴
点に対応する位置をクリックして、この特徴点のデータ
を得る。なお、この実施例での特徴点は、「首側部」
「肩峰」「腋」「肘」「手首」「ウエスト側部」「臀側
部」「膝側部」「足首」に対応している。
Further, the storage of the image data of the person to be tried on will be described. The image input device 32 captures an image of a person 36 who wants to try on as shown in FIG. 5A. It is desirable that this person 36 also stands at the same position as the above-mentioned mannequin 34 in the same pose (posture) as the mannequin 34. This image data is written in the video memory 20 and displayed. Then, as shown in FIG. 5B, the mouse is clicked on the position corresponding to the feature point in FIG. 2B to obtain the data of this feature point. The characteristic point of this embodiment is "neck side".
It corresponds to "acromion""armpit""elbow""wrist""waistside""gluteside""kneeside""ankle".

【0017】このようにして各種データが外部記憶装置
18およびビデオメモリ20に書き込まれた後、CPU
14は、マネキン34の体型および肌の色を、試着対象
者の体型および肌の色に近づくように変更し、さらに変
更したマネキン画像に合うように衣服の形状を変形し、
このマネキン画像に合成する。合成された画像データ
は、一旦ビデオメモリ20に書き込まれた後、D/A変
換器28でアナログ映像信号に変換され、CRT30か
ら出力される。
After the various data are written in the external storage device 18 and the video memory 20 in this manner, the CPU
14 changes the body type and skin color of the mannequin 34 so as to approach the body type and skin color of the person to be tried on, and further transforms the shape of the clothes so as to match the changed mannequin image,
This mannequin image is composited. The combined image data is once written in the video memory 20, converted into an analog video signal by the D / A converter 28, and output from the CRT 30.

【0018】衣服画像の切り抜き動作をフローに従って
説明する。CPU14は、図6に示すフローに従って衣
服画像データを外部記憶装置18に書き込む。すなわ
ち、まずステップS1で、図3Aに示すように衣服を着
せたマネキン34の画像をビデオメモリ20に書き込
む。次にステップS3で、外部記憶装置18に書き込ま
れた特徴点を抽出し、これをビデオメモリ20に書き込
んだ着服したマネキン画像の対応する位置に付する。特
徴点が付されたマネキン画像が、ビデオメモリ20から
読み出されてCRT30から出力する。その後、ステッ
プS7でマネキン34が着ている衣服の輪郭がマウス2
6によってなぞられたと判断すれば、ステップS9でそ
の衣服の画像を抽出し、外部記憶装置18に書き込む。
以上の処理を、衣服を着せ替えて繰り返すことにより、
図4に示すような複数の衣服画像データが、外部記憶装
置18に書き込まれる。
The cutout operation of the clothes image will be described according to the flow. The CPU 14 writes the clothing image data in the external storage device 18 according to the flow shown in FIG. That is, first, in step S1, as shown in FIG. 3A, the image of the mannequin 34 with clothes is written in the video memory 20. Next, in step S3, the feature points written in the external storage device 18 are extracted and attached to the corresponding positions of the worn mannequin image written in the video memory 20. The mannequin image with the feature points is read from the video memory 20 and output from the CRT 30. Then, in step S7, the contour of the clothes worn by the mannequin 34 is changed to the mouse 2
If it is determined that the image is traced by 6, the image of the clothes is extracted and written in the external storage device 18 in step S9.
By changing the clothes and repeating the above process,
A plurality of clothes image data as shown in FIG. 4 is written in the external storage device 18.

【0019】CPU14は、また、図7〜図9に示すフ
ローに従って試着を希望する人物に所望の衣服を着せる
シミュレーション処理を行う。すなわち、まずステップ
S11で所定の位置に立たせた図5Aに示す試着対象人
物画像を画像入力装置32で取り込んでビデオメモリ2
0に書き込む。ステップS15でマウス26によって図
5Bに示すようにこの人物画像に特徴点が付されたかど
うか判断する。ここで注意すべきは、この特徴点は体の
輪郭線上に付す点である。そして、特徴点が付される
と、すなわち特徴点がビデオメモリ20に書き込まれる
と、ステップS17で外部記憶装置18から図2に示す
マネキン34の画像データを読み出し、作業用メモリ1
6に書き込む。続いて、ステップS19でこの試着対象
人物画像に付された特徴点に対応するマネキン画像の特
徴点を検索し、ステップS21で両画像の特徴点が一致
するようにマネキン画像を変形するとともにこれに合わ
せてマネキン画像の特徴点も移動させる。なお、マネキ
ン画像の変形に際してはアフィン変換などの手法を用い
る。
The CPU 14 also carries out a simulation process of putting a desired clothes on a person who wants to try on the clothes according to the flows shown in FIGS. That is, first, the fitting target person image shown in FIG.
Write to 0. In step S15, it is determined by the mouse 26 whether or not a feature point is added to this person image as shown in FIG. 5B. It should be noted here that this feature point is attached to the contour line of the body. When the feature points are added, that is, when the feature points are written in the video memory 20, the image data of the mannequin 34 shown in FIG. 2 is read from the external storage device 18 in step S17, and the working memory 1 is read.
Write to 6. Subsequently, in step S19, the feature points of the mannequin image corresponding to the feature points attached to the fitting target person image are searched, and in step S21, the mannequin image is transformed so that the feature points of both images match each other. The feature points of the mannequin image are also moved together. When transforming the mannequin image, a technique such as affine transformation is used.

【0020】マネキン画像の変形が終了すると、ステッ
プS23でCRT30に表示された人物画像の肌の部分
の輪郭がマウス26によってなぞられたかどうか判断す
る。そして“YES”であれば、ステップS25でその
輪郭内の画素の色成分(R,G,B)を算出するととも
に、ステップS27でマネキン画像において対応する画
素の色成分(R,G,B)を算出する。次に、ステップ
S29で数1に従って色成分の変換係数Ai を算出す
る。
When the deformation of the mannequin image is completed, it is determined in step S23 whether or not the outline of the skin portion of the human image displayed on the CRT 30 is traced by the mouse 26. If "YES", the color components (R, G, B) of the pixels within the contour are calculated in step S25, and the color components (R, G, B) of the corresponding pixels in the mannequin image are calculated in step S27. To calculate. Next, in step S29, the conversion coefficient A i of the color component is calculated according to equation 1.

【0021】[0021]

【数1】Ni =Ai ・Mi (1≦i≦n) Ni :人物画像の色成分 Mi :マネキン画像の色成分 変換係数Ai の算出について足の部分を用いて詳しく説
明すると、まずステップS25で図10(A)の各画素
について人物34の色成分N1 〜Nn を算出し、次にス
テップS27で図10(B)に示すように色成分N1
n に対応するマネキン34の色成分M1 〜Mn を算出
し、その後それぞれの画素について変換係数A1 〜An
を算出する。それぞれの色成分N1 〜Nn およびM1
n は、もちろん各色成分(R,G,B)に関して求め
られ、変換係数Ai も各色成分(R,G,B)に関して
求められる。このようにして変換係数が算出されると、
ステップS31で人物画像の肌の輪郭が新たに指定され
たかどうか判断し、“YES”であればステップS25
に戻るが、“NO”であれば、ステップS29で、算出
した全ての変換係数の平均値を各色成分(R,G,B)
毎に算出する。
[Formula 1] N i = A i · M i (1 ≦ i ≦ n) N i : Color component of person image M i : Color component of mannequin image Detailed calculation of conversion coefficient A i using foot part then, first, in step S25 for each pixel shown in FIG. 10 (a) calculates the color component n 1 to n n of the person 34, then the color component n 1 as shown in FIG. 10 (B) in steps S27 ~
The color components M 1 to M n of the mannequin 34 corresponding to N n are calculated, and then the conversion coefficients A 1 to A n are calculated for each pixel.
Is calculated. Each color component N 1 to N n and M 1 to
Of course, M n is obtained for each color component (R, G, B), and the conversion coefficient A i is also obtained for each color component (R, G, B). When the conversion coefficient is calculated in this way,
In step S31, it is determined whether or not the contour of the skin of the person image is newly designated. If "YES", step S25
However, if “NO”, in step S29, the average value of all the calculated conversion coefficients is calculated for each color component (R, G, B).
It is calculated every time.

【0022】その後、ステップS35でマネキン画像の
画素の色成分(R,G,B)を算出し、ステップS37
でこの色成分にステップS33で平均した変換係数を積
算する。続いてステップS39で、ステップS35で算
出した画素をこの積算値に置換し、ステップS41でマ
ネキン画像の全ての画素について置換処理をしたかどう
か判断する。ここで“NO”であればステップS35に
戻るが、“YES”であれば、ステップS43において
人物画像の顔部分をマネキン画像に合成し、ステップS
45で顔の接合部をスムージング処理する。以上の処理
によって、衣服を着ていない人物36のシミュレーショ
ンデータが作成される。
Then, in step S35, the color components (R, G, B) of the pixels of the mannequin image are calculated, and in step S37.
Then, the conversion coefficient averaged in step S33 is added to this color component. Succeedingly, in a step S39, the pixel calculated in the step S35 is replaced with the integrated value, and in a step S41, it is determined whether or not the replacing process is performed for all the pixels of the mannequin image. If “NO” here, the process returns to step S35, but if “YES”, the face portion of the person image is combined with the mannequin image in step S43, and the process proceeds to step S35.
At 45, the face joint is smoothed. Through the above processing, the simulation data of the person 36 who is not wearing clothes is created.

【0023】続いて、ステップS49で外部記憶装置1
8に書き込んだ衣服画像データを読み出して、図4に示
すようにCRT30にマルチ画面表示する。ただし、画
面表示する前に、通常のキーワード検索や顧客が過去に
選択した好みなどによって衣服の種類が絞り込まれる。
その後、ステップS51でキーボード24ないしマウス
26によっていずれかの衣服が選択されたかどうか判断
し、“YES”であればステップS53で、選択された
衣服画像データを作業用メモリ16に書き込む。次に、
ステップS55でマネキン画像の特徴点に対応する衣服
画像の特徴点を検索し、ステップS57で両画像の特徴
点が一致するようにアフィン変換などによって衣服を変
形する。そして、ステップS59でこの衣服をマネキン
画像に合成しCRT30から出力する。これによって、
所望の衣服を人物36に着せたシミュレーションデータ
がCRT30から出力される。
Subsequently, in step S49, the external storage device 1
The clothing image data written in 8 is read out and multi-screen displayed on the CRT 30 as shown in FIG. However, before the screen is displayed, the type of clothes is narrowed down by a normal keyword search or the preference the customer has selected in the past.
Then, in step S51, it is determined whether any clothes are selected by the keyboard 24 or the mouse 26. If "YES", the selected clothes image data is written in the work memory 16 in step S53. next,
In step S55, the characteristic points of the clothes image corresponding to the characteristic points of the mannequin image are searched, and in step S57, the clothes are deformed by affine transformation or the like so that the characteristic points of both images match. Then, in step S59, the clothes are combined with the mannequin image and output from the CRT 30. by this,
The CRT 30 outputs simulation data in which desired clothes are put on the person 36.

【0024】動作において、試着を希望する人物36が
画像入力装置32から所定距離だけ離れた位置に立つ
と、CPU14はその人物画像を画像入力装置32によ
って取り込み、予め書き込んでおいたマネキン34の体
型および色をこの人物の体型および肌の色に近づくよう
に処理する。さらに、この人物36が試着を希望する衣
服をCRT30にマルチ画面表示し、その中から選択さ
れた衣服をマネキン34に合うように変形して合成す
る。
In operation, when a person 36 who wants to try on stands at a position separated from the image input device 32 by a predetermined distance, the CPU 14 captures the image of the person by the image input device 32, and the body shape of the mannequin 34 written in advance. And the color are processed to approximate the figure and skin color of this person. Further, the clothing desired to be tried on by the person 36 is displayed on the CRT 30 in a multi-screen manner, and the clothing selected from the clothing is deformed and combined so as to fit the mannequin 34.

【0025】この実施例によれば、マネキン34を人物
36の体型および肌の色に近づくように変形処理してこ
れに衣服を合成するようにしたため、この人物36が実
際にその衣服を着た状態をシミュレーション表示するこ
とができる。この実施例ではステップS33で算出され
た変換係数の平均値を、ステップS37で単にマネキン
画像の各画素の色成分に積算するようにしたが、色成分
を変換すべき画素と人物画像の肌が露出している画素か
らの距離によってその肌の色成分に重み付けをし、重み
付けした値に変換係数の平均値とを積算して変換すべき
画素の色を再現するようにしてもよい。すなわち、たと
えば図11に示す人物36のA点の色成分を変換する場
合に、襟首,手および足から選択した代表点のR成分の
変換係数をそれぞれα1,α2およびα3とし、それぞ
れの代表点からA点までの距離の比がa:b:cであっ
たとする。この場合、A点における変換後のR成分
m ′は数2に従って求められる。
According to this embodiment, the mannequin 34 is deformed so as to approximate the body shape and skin color of the person 36 and the clothes are combined therewith, so that the person 36 actually wears the clothes. The state can be displayed as a simulation. In this embodiment, the average value of the conversion coefficients calculated in step S33 is simply added to the color component of each pixel of the mannequin image in step S37. The skin color component may be weighted according to the distance from the exposed pixel, and the weighted value may be integrated with the average value of the conversion coefficients to reproduce the color of the pixel to be converted. That is, for example, in the case of converting the color component of the point A of the person 36 shown in FIG. 11, the conversion coefficients of the R components of the representative points selected from the neck, the hand and the foot are α1, α2 and α3, respectively, and the respective representative points are It is assumed that the ratio of the distances from A to A is a: b: c. In this case, the converted R component R m ′ at the point A is obtained according to the equation 2.

【0026】[0026]

【数2】Rm ′={(1/a)/d}・α1・Rm
{(1/b)/d}・α2・Rm+{(1/c)/d}
・α3・Rmm :マネキン画像のA点におけるR成分 d=(1/a)+(1/b)+(1/c) また、代表点のG成分の変換係数をβ1,β2およびβ
3とし、B成分の変換係数をγ1,γ2およびγ3とす
ると、A点における変換後のG成分Gm ′およびB成分
m ′は数3および数4で求められる。
## EQU2 ## R m ′ = {(1 / a) / d} · α1 · R m +
{(1 / b) / d} · α2 · R m + {(1 / c) / d}
Α3 · R m R m : R component at point A of the mannequin image d = (1 / a) + (1 / b) + (1 / c) Further, the conversion coefficients of the G component at the representative point are β1, β2 and β
3 and the conversion coefficients of the B component are γ1, γ2, and γ3, the G component G m ′ and B component B m ′ after conversion at the point A can be obtained by Equations 3 and 4.

【0027】[0027]

【数3】Gm ′={(1/a)/d}・β1・Gm
{(1/b)/d}・β2・Gm+{(1/c)/d}
・β3・Gmm :マネキン画像のA点におけるG成分 d=(1/a)+(1/b)+(1/c)
## EQU3 ## G m ′ = {(1 / a) / d} · β1 · G m +
{(1 / b) / d} · β2 · G m + {(1 / c) / d}
Β3 · G m G m : G component at point A of the mannequin image d = (1 / a) + (1 / b) + (1 / c)

【0028】[0028]

【数4】Bm ′={(1/a)/d}・γ1・Bm
{(1/b)/d}・γ2・Bm+{(1/c)/d}
・γ3・Bmm :マネキン画像のA点におけるB成分 d=(1/a)+(1/b)+(1/c) これによって、人物画像を画像入力装置32で取り込む
ときのライティング(Lighting)によって体の各部分で色
成分に違いが生じても、シミュレーションされる画像の
色を自然に変化させて表すことができる。
## EQU4 ## B m ′ = {(1 / a) / d} · γ1 · B m +
{(1 / b) / d} · γ2 · B m + {(1 / c) / d}
.Gamma.3.B m B m : B component at the point A of the mannequin image d = (1 / a) + (1 / b) + (1 / c) As a result, lighting when the human image is captured by the image input device 32 Even if there is a difference in color components between parts of the body due to (Lighting), the color of the simulated image can be naturally changed and represented.

【0029】より詳しく説明すると、図8のステップS
33〜S41に代えて図12に示すフローを処理する。
すなわち、ステップS31で“NO”であれば、ステッ
プS61でマネキン画像に含まれる1画素を指定し、そ
の色成分Rm ,Gm およびB m を算出する。次に、ステ
ップS63で、マウス26でなぞられた輪郭内の任意の
画素を代表点として指定し、ステップS65でこの代表
点からステップS61で指定した画素までの距離の比を
算出する。続いて、ステップS67で数1〜数3に従っ
て色成分Rm ′,Gm ′およびBm ′を算出し、ステッ
プS69で、ステップS61で指定した画素の色成分R
m ,Gm およびBm をこの色成分Rm ′,Gm ′および
m ′に置換する。その後、ステップS71で全ての画
素を処理したかどうか判断し、“NO”であればステッ
プS61に戻るが、“YES”であればステップS43
に移行する。
More specifically, step S in FIG.
The flow shown in FIG. 12 is processed instead of 33 to S41.
That is, if “NO” in the step S31, the step
In S61, specify one pixel included in the mannequin image and
Color component Rm, GmAnd B mTo calculate. Next,
At step S63, an arbitrary contour within the contour traced by the mouse 26 is selected.
The pixel is designated as the representative point, and the representative point is selected in step S65.
The ratio of the distance from the point to the pixel specified in step S61
calculate. Then, in step S67, follow the formulas 1 to 3.
Color component Rm′, Gm'And Bm′ Is calculated and
In step S69, the color component R of the pixel specified in step S61
m, GmAnd BmThe color component Rm′, Gm'and
Bm’ Then, in step S71, all images
Judge whether the element has been processed, and if “NO”, step
Return to step S61, but if "YES", the step S43.
Move to.

【0030】なお、この実施例ではCRT30に表示さ
れた人物画像に特徴点を付す際に全ての特徴点を付すよ
うにしたが、代表的な点をいくつか指定し、その間を人
物の体の統計データなどに基づいて自動的に補間した
り、さらには衣服も含めた人物34の輪郭線を抽出して
人物の体の統計データなどに基づいて全ての特徴点を自
動的に指定するようにしてもよい。また、マネキン34
の画像データは図7のステップS17で作業用メモリ1
6に書き込むようにしたが、シミュレーション装置10
を起動したときに予め作業用メモリに書き込むようにし
てもよい。さらに、マネキン34の輪郭を示す特徴点は
マネキン34自身に付すようにしたが、マネキン画像を
入力後マウス26を操作して手動で付するようにしても
よい。
In this embodiment, all the characteristic points are added when the characteristic points are added to the person image displayed on the CRT 30. However, some representative points are designated, and a part of the body of the person is specified between them. Automatically interpolating based on statistical data or the like, and further extracting the contour line of the person 34 including clothes to automatically specify all the feature points based on the statistical data of the body of the person. May be. Also, the mannequin 34
Image data of the work memory 1 in step S17 of FIG.
6 is written in the simulation device 10
May be written in the work memory in advance when is started. Further, the characteristic points indicating the contour of the mannequin 34 are attached to the mannequin 34 itself, but may be attached manually by operating the mouse 26 after inputting the mannequin image.

【0031】さらにまた、この実施例では顔の部分だけ
マネキン画像に合成するようにしたが、襟首,手および
足などの人物画像において肌が露出している部分につい
ても、人物画像から切り出してマネキン画像に合成し、
スムージング処理するようにしてもよい。また、この実
施例では変換係数を色成分(R,G,B)に対して求め
るようにしたが、輝度成分や色相成分に対して求めるよ
うにしてもよい。さらに、この実施例では人物画像とマ
ネキン画像との間で1画素毎に変換係数を求めるように
したが、各画素の変換係数の算出に当たって、まずマネ
キン画像において色成分が同一の画素を検出し、この画
素に対応する人物画像の画素の色成分の値を平均し、そ
してこの平均値との間で変換係数を求めるようにしても
よい。
Furthermore, in this embodiment, only the face portion is combined with the mannequin image. However, the exposed portion of the human image such as the neck, hands and feet is cut out from the human image and cut into the mannequin. Combine it into an image,
You may make it perform a smoothing process. Further, in this embodiment, the conversion coefficient is calculated for the color components (R, G, B), but it may be calculated for the luminance component and the hue component. Further, in this embodiment, the conversion coefficient is obtained for each pixel between the person image and the mannequin image. However, in calculating the conversion coefficient of each pixel, first, the pixels having the same color component are detected in the mannequin image. , The color component values of the pixels of the person image corresponding to this pixel may be averaged, and the conversion coefficient may be obtained from this average value.

【0032】なお、本実施例では、説明を簡単にするた
めに、マネキンによる基本的人物画像の取り込み、衣服
画像の取り込み、試着対象者の人物画像の取り込み、お
よび、合成の全ての工程を1つの装置で行った。しか
し、本願は、マネキンからの人物画像の取り込み、衣服
画像の取り込みを予め工場で行ってこれらの画像情報を
格納し、出荷後は、設置場所である各服飾品販売店で、
試着対象者の人物画像の取り込み、および、合成の工程
を行うようにしてもよい。
In the present embodiment, for simplification of explanation, all steps of capturing a basic human image by a mannequin, capturing a clothing image, capturing a human image of a person to be tried on, and combining are performed in one step. I went with one device. However, in the present application, the image of a person from the mannequin is captured, the image of the clothing is captured in advance at the factory to store these image information, and after shipment, at each clothing store, which is the installation location,
You may make it perform the process of taking in the person's image of a fitting subject, and combining.

【0033】また、本願の請求項とは異なるが、イヤリ
ング・ブローチ・眼鏡・ネックレス等の服飾品をも、合
成するようにしてもよい。また、本実施例では、マネキ
ンは一体であったが、これは、いくつかの代表的な体型
のマネキンおよびその衣服の画像を予め取り込んでお
き、試着対象者と体型的に近いデータを変形するように
すれば、違和感はさらに減少する。場合分けとしては、
「性別(男性・女性)」「身長別(中背・長身・背の低
い人)」「年齢別(3才・5才未満・10才未満・15
才未満・20才前後・20代・30代…80才以上)」
「肥満度別(やせ型・中肉・太り型)」「姿勢別(ポー
ズ1・ポーズ2・ポーズ3)」等が考えられる。
Although different from the claims of the present application, clothing items such as earrings, brooches, glasses and necklaces may also be combined. Further, in the present embodiment, the mannequin is integrated, but it is possible to preliminarily capture images of the mannequin of several typical body types and their clothes, and transform the data that are physically similar to the fitting subject. By doing so, the discomfort is further reduced. As a case classification,
"Gender (male / female)""Height (medium / tall / short person)""Age (3 years, under 5 years, under 10 years, 15"
Under 20 years old, around 20 years old, 20s, 30s ... 80 years old or older) "
"By obesity level (thin type, middle meat, overweight type)" and "by posture" (pose 1, pose 2, pose 3), etc. can be considered.

【0034】また、実施例では、試着対象者の画像の取
り込みをマネキン画像と同じように、同じ位置で同じポ
ーズで入力したが、本願は、ポーズの異なる写真からで
もよい。ポーズが異なる場合には、マネキン画像を変形
する場合に、手首の位置、肘の位置、膝の位置そのもの
は、利用できない。手首の幅、肘の幅、膝の幅等が抽出
できれば、これを利用する。また、本願では、試着対象
者の全身の画像を取り込んだが、これは、一部でもよ
い。なお、このような場合、当然、シミュレーションの
精度は落ちる。
Further, in the embodiment, the image of the person to be tried on is input in the same position and in the same pose as in the mannequin image, but the present application may be from photographs of different poses. If the pose is different, the wrist position, the elbow position, and the knee position themselves cannot be used when transforming the mannequin image. If the width of the wrist, the width of the elbow, the width of the knee, etc. can be extracted, use them. Further, in the present application, an image of the whole body of the person to be tried on is captured, but this may be a part. In such a case, of course, the accuracy of the simulation is lowered.

【0035】また、実施例では述べなかったが、体にぴ
ったりとフィットする衣服部分は特徴点を多く設ける方
がよい。また、実施例では、マネキンおよび試着対象者
の体型情報をあわせるための対応座標データ(特徴
点)、および、変形マネキン画像と衣服画像の位置合わ
せのための対応座標データ(特徴点)を、同一とした
が、本願はこれに限定されるものではない。また、この
対応座標データは、裸体の輪郭の一部から得たが、本願
は、これに限定される訳ではない。
Although not described in the embodiment, it is better to provide a lot of characteristic points on the clothes portion which fits the body exactly. Further, in the embodiment, the corresponding coordinate data (feature points) for matching the body type information of the mannequin and the fitting subject and the corresponding coordinate data (feature points) for aligning the deformed mannequin image and the clothing image are the same. However, the present application is not limited to this. Further, although the corresponding coordinate data is obtained from a part of the contour of the naked body, the present application is not limited to this.

【0036】つまり、体型情報を、身長・体重・胸囲・
腰囲・ヒップ囲・座高・股下・臍高乳頭高・乳頭間幅等
のデータとし、これらのデータ値から、基本的人物画像
の変形を行ってもよい。また、利用する体型データとし
ては、通産省の外郭団体である社団法人・人間生活工学
センターが、計測している体型データ等が、考えられ
る。
In other words, the body type information is used for height, weight, chest measurement,
It is also possible to use data such as waist circumference, hip circumference, sitting height, inseam, navel height, nipple height, and nipple width, and the basic person image may be transformed from these data values. Further, as the body shape data to be used, body shape data and the like measured by a corporation, Human Life Engineering Center, which is an external organization of the Ministry of International Trade and Industry, can be considered.

【0037】本実施例では、衣服画像と基本的人物画像
とは、それぞれ変形した後に合成したが、この2つの画
像の変形のための処理が同じであれば、まず、合成した
後に変形するようにしてもよい。また、特徴点等の点を
基準とする変形ではなく領域での変形を行うようにして
もよい。たとえば、マネキンおよび衣服の変形のための
データとして、図13、図14に示されるような領域で
変形処理を行うようにしてもよい。この各領域の変形
は、試着対象者の体格データに応じて変形するようにし
てもよい。
In the present embodiment, the clothing image and the basic person image are respectively transformed and then synthesized. However, if the processing for transforming these two images is the same, first, they are synthesized and then transformed. You may Further, the deformation may be performed in the area instead of the deformation based on points such as feature points. For example, as the data for deforming the mannequin and the clothes, the deforming process may be performed in the regions shown in FIGS. 13 and 14. The deformation of each area may be changed according to the physique data of the person trying on.

【0038】また、変形した衣服画像の各部のサイズを
出力するようにしてもよい。そして、このサイズを参考
に衣服を作成すればよい。上述の実施例は、試着対象者
の体型に合った衣服を作成する場合に有効である。しか
し、本願は、既製の服が試着対象者に合うか否かを判定
する場合に使用することもできる。
Further, the size of each part of the deformed clothing image may be output. Then, the clothing may be created with reference to this size. The above-described embodiment is effective when creating clothes that fit the body shape of the person to be tried on. However, the present application can also be used to determine whether ready-made clothing suits the person being tried on.

【0039】この場合、衣服画像の対応データ(前述の
特徴点に相当)に工夫する。つまり、図15のマネキン
画像を試着対象者の体型情報により、変形する。入力す
る体型情報としては、性別・年齢・身長・体重・胸囲・
ウエスト周・ヒップ周・股下の高さ等である。女性の場
合は、乳頭胸囲もあればよい。このらから、その他の部
分(オトガイ高・肩峰高・大腿周・上腕長・上腕周・上
肢長・前腕最大周・背肩幅等)の体型情報をも推定して
求める。
In this case, the corresponding data of the clothes image (corresponding to the above-mentioned characteristic points) is devised. That is, the mannequin image in FIG. 15 is transformed according to the body type information of the person to be tried on. The body type information you enter includes gender, age, height, weight, chest circumference,
Waist circumference, hip circumference, inseam height, etc. For women, nipple and chest circumference is all that is needed. From these, the figure information of other parts (high genital height, acromion height, thigh circumference, upper arm length, upper arm circumference, upper limb length, forearm maximum circumference, back shoulder width, etc.) is also estimated and obtained.

【0040】これらの体型情報による変形により、マネ
キン画像を変形する。この変形により、図15の各部の
特徴点等の位置も変位する。次に、この変位した特徴点
の位置を参考に、図16の衣服画像を変形する。ここで
の変形では、衣服のサイズは、そのままとする。ここ
で、図16(a)の衣服画像に付与された変形のための
対応データは、以下の働きをする。
The mannequin image is deformed by the deformation based on the body type information. Due to this deformation, the positions of the characteristic points and the like of the respective parts in FIG. Next, the clothing image of FIG. 16 is transformed with reference to the positions of the displaced characteristic points. In this modification, the size of the clothes remains unchanged. Here, the corresponding data for deformation given to the clothing image of FIG. 16A has the following functions.

【0041】b11,b12の対応データ線は、a1
1,a12が線上のいずれかに位置するように条件設定
されている。b21,b22も、a21,a22が線上
のいずれかに位置するように条件設定された対応データ
線である。b31,b32は、この内方にマネキン画像
の片腕輪郭a31,a32が位置するように条件設定さ
れた対応データ点である。
The corresponding data line of b11 and b12 is a1
The conditions are set so that 1 and a12 are located on any of the lines. b21 and b22 are also corresponding data lines that are conditionally set so that a21 and a22 are located on any of the lines. b31 and b32 are corresponding data points that are conditionally set so that the one-arm contours a31 and a32 of the mannequin image are located inward.

【0042】b33,b34は、この内方にマネキン画
像の残りの片腕a33,a34が位置するように条件設
定された対応データ点である。b41,b42は、a4
1,a42が線上のいずれかに位置するように条件設定
された対応データ線である。b51,b52は、a5
1,a52に配置されるように条件設定された対応デー
タ点である。
B33 and b34 are corresponding data points which are conditionally set so that the remaining one arms a33 and a34 of the mannequin image are located inward. b41 and b42 are a4
1, a 42 is a corresponding data line that is conditionally set so as to be located on any of the lines. b51 and b52 are a5
1 and a52 are corresponding data points that are conditionally set to be arranged.

【0043】上述の条件設定に合うように衣服画像を変
形して合成することにより、リアルな試着画像を得るこ
とができる。なお、上記例では、a31,a32,a3
3,a34のマネキン画像の輪郭線は、マネキン画像の
切り出し時に利用した輪郭線データを用いてもよい。図
16(b)の衣服画像に付与された変形のための対応デ
ータのうち、上述と同じ働きをする対応データの説明は
割愛する。
By deforming and synthesizing the clothes image so as to meet the above-mentioned condition setting, a realistic try-on image can be obtained. In the above example, a31, a32, a3
As the contour line of the mannequin image of 3, a34, the contour line data used at the time of cutting out the mannequin image may be used. Of the correspondence data for deformation given to the clothing image of FIG. 16B, the description of the correspondence data having the same function as above will be omitted.

【0044】なお、b51′,b52′は、この内方に
マネキン画像のa51,a52が配置されるように条件
設定された対応データ点である。また、b61,b62
は、この内方にマネキン画像のa61,a62が配置さ
れるように条件設定された対応データ点である。このよ
うに、衣服画像を変形する場合に、上述の条件設定に合
うように衣服画像を変形することにより、リアルな試着
画像を得ることがでる。
Note that b51 'and b52' are corresponding data points that are conditionally set so that a51 and a52 of the mannequin image are arranged inward. Also, b61, b62
Are corresponding data points that are conditionally set so that a 61 and a 62 of the mannequin image are arranged inward. In this way, when the clothes image is deformed, by deforming the clothes image so as to meet the above-mentioned condition setting, a realistic fitting image can be obtained.

【0045】なお、変形したマネキン画像が、衣服画像
からはみ出さないように、衣服画像およびその対応デー
タを設定している。しかし、どのような変形にも対応す
るためには、多くの対応データを設けなくてはならず、
対応データの設定が厄介となる。このため、この対応デ
ータは、後から、追加・削除・条件設定ができるように
し、必要な場合に追加するようにしてもよい。
The clothing image and its corresponding data are set so that the deformed mannequin image does not protrude from the clothing image. However, in order to deal with any deformation, many corresponding data must be provided,
Setting corresponding data becomes difficult. Therefore, this correspondence data may be added / deleted / condition set later, and may be added when necessary.

【0046】また、このように合成した後で、衣服画像
の輪郭線を基準に、この衣服画像を変形できるようにす
れば、衣服のリフォームのシミュレーションが行える。
If the clothing image can be deformed with the contour line of the clothing image as a reference after such composition, the simulation of the clothing reform can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例を示すブロック図である。FIG. 1 is a block diagram showing one embodiment of the present invention.

【図2】マネキン画像を示す図解図である。FIG. 2 is an illustrative view showing a mannequin image.

【図3】マネキン画像に着せた衣服画像を示す図解図で
ある。
FIG. 3 is an illustrative view showing a clothing image worn on a mannequin image.

【図4】衣服を着せたマネキンを示す外観図である。FIG. 4 is an external view showing a mannequin wearing clothes.

【図5】(A)および(B)は人物画像を示す外観図で
ある。
5A and 5B are external views showing a person image.

【図6】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 6 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図7】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 7 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図8】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 8 is a flowchart showing a part of the operation of FIG. 1 embodiment.

【図9】図1実施例の動作の一部を示すフロー図であ
る。
9 is a flowchart showing a part of the operation of FIG. 1 embodiment. FIG.

【図10】人物画像およびマネキン画像の足部分の対応
する画素を示す図解図である。
FIG. 10 is an illustrative view showing corresponding pixels of a foot portion of a human image and a mannequin image.

【図11】人物画像を示す外観図である。FIG. 11 is an external view showing a person image.

【図12】この発明の他の実施例の動作の一部を示すブ
ロック図である。
FIG. 12 is a block diagram showing a part of the operation of another embodiment of the present invention.

【図13】第2の例における衣服画像とその変形領域を
示す図である。
FIG. 13 is a diagram showing a clothing image and its deformed region in a second example.

【図14】第2の例におけるマネキン画像とその変形領
域を示す図である。
FIG. 14 is a diagram showing a mannequin image and its deformed region in a second example.

【図15】第3の例におけるマネキン画像とその衣服画
像との合成のための対応座標データを示す図である。
FIG. 15 is a diagram showing corresponding coordinate data for synthesizing a mannequin image and its clothing image in the third example.

【図16】第3の例における衣服画像とマネキン画像と
の合成のための対応座標データを示す図である。
FIG. 16 is a diagram showing corresponding coordinate data for synthesizing a clothing image and a mannequin image in the third example.

【符号の説明】[Explanation of symbols]

10 …シミュレーション装置 14 …CPU 16 …作業用メモリ 18 …外部記憶装置 20 …ビデオメモリ 24 …キーボード 26 …マウス 30 …CRT 32 …画像入力装置 10 ... Simulation device 14 ... CPU 16 ... Working memory 18 ... External storage device 20 ... Video memory 24 ... Keyboard 26 ... Mouse 30 ... CRT 32 ... Image input device

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成7年8月9日[Submission date] August 9, 1995

【手続補正1】[Procedure amendment 1]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図2[Correction target item name] Figure 2

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図2】 [Fig. 2]

【手続補正2】[Procedure amendment 2]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図3[Correction target item name] Figure 3

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図3】 [Figure 3]

【手続補正3】[Procedure 3]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図13[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図13】 FIG. 13

【手続補正4】[Procedure amendment 4]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図14[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図14】 FIG. 14

【手続補正5】[Procedure Amendment 5]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図15[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図15】 FIG.

【手続補正6】[Procedure correction 6]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図16[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図16】 FIG. 16

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】(a) 所定位置に配置した第1人物画像を第
1輪郭情報とともにメモリし、 (b) 前記所定位置に配置した第2人物画像を第2輪郭情
報とともにメモリし、 (c) 前記所定位置に配置しかつ衣服を着せた第1人物画
像の衣服画像を第3輪郭情報とともにメモリし、 (d) 前記第1輪郭情報,前記第2輪郭情報および前記第
3輪郭情報に基づいて前記第1人物画像および前記衣服
画像を変形し、そして (e) 変形した第1人物画像に変形した衣服画像を合成す
る、試着シミュレーション方法。
1. A first person image arranged at a predetermined position is memorized together with first contour information, and a second person image arranged at said predetermined position is memorized together with second contour information. ) A clothes image of a first person image placed at the predetermined position and wearing clothes is stored together with third contour information, and (d) based on the first contour information, the second contour information and the third contour information. A fitting simulation method in which the first person image and the clothes image are deformed by the above, and (e) the deformed clothes image is combined with the deformed first person image.
【請求項2】前記ステップ(c) は、 (c-1) 前記衣服を着せた第1人物画像を第1メモリに書
き込み、 (c-2) 前記第1メモリに書き込んだ衣服画像に前記第1
輪郭情報の一部を前記第3輪郭情報として付し、 (c-3) 前記第3輪郭情報を付した衣服画像を抽出して第
2メモリに書き込む、請求項1記載の試着シミュレーシ
ョン方法。
2. The step (c) comprises: (c-1) writing the first person image wearing the clothes in a first memory; (c-2) adding the first person image to the clothes image written in the first memory. 1
The fitting simulation method according to claim 1, wherein a part of the contour information is attached as the third contour information, and (c-3) the clothing image with the third contour information is extracted and written in the second memory.
【請求項3】前記ステップ(d) は、 (d-1) 前記第1輪郭情報が前記第2輪郭情報に一致する
ように前記第1人物画像および前記第1輪郭情報を変形
し、 (d-2) 変形した第1輪郭情報に前記第3輪郭情報が一致
するように前記衣服画像を変形する、請求項1または2
記載の試着シミュレーション方法。
3. The step (d) comprises: (d-1) transforming the first person image and the first contour information so that the first contour information matches the second contour information; -2) The clothing image is transformed so that the third contour information matches the transformed first contour information.
The fitting simulation method described.
【請求項4】(a) 基本的人物画像と、この基本的人物画
像のポーズに対応した複数の衣服画像とを予めメモリ
し、 (b) 試着対象人物の体型を表す体型情報をメモリし、 (c) 前記複数の衣服画像の少なくとも1つを選択し、 (d) 前記基本的人物画像に、前記選択した衣服画像を合
成し、 (e) この合成画像を前記体型情報に基づいて変形する、
試着シミュレーション方法。
4. (a) A basic person image and a plurality of clothes images corresponding to the poses of the basic person image are stored in advance, (b) Body type information representing the body type of the person being tried-on is stored, (c) at least one of the plurality of clothes images is selected, (d) the selected clothes image is combined with the basic person image, and (e) the combined image is transformed based on the body type information. ,
Try-on simulation method.
【請求項5】(a) 基本的人物画像と、この基本的人物画
像のポーズに対応した複数の衣服画像とを予めメモリ
し、 (b) 試着対象人物の体型を表す体型情報をメモリし、 (c) 前記複数の衣服画像の少なくとも1つを選択し、 (d) 前記体型情報に基づいて、前記基本的人物画像を変
形するとともに、この変形された基本的人物画像に対応
するように、前記選択された衣服画像を変形し、 (e) 変形した基本的人物画像に、変形した衣服画像を合
成する、試着シミュレーション方法。
5. (a) A basic person image and a plurality of clothing images corresponding to the poses of the basic person image are stored in advance, (b) Body type information representing the body type of the person to be tried on is stored, (c) at least one of the plurality of clothes images is selected, (d) based on the body type information, the basic person image is deformed, and the deformed basic person image is dealt with, A fitting simulation method in which the selected clothing image is transformed, and (e) the transformed basic person image is combined with the transformed clothing image.
【請求項6】マネキン人形を撮影することにより前記基
本的人物画像を得、このマネキン人形に衣服を着せて撮
影した画像中から前記衣服の部分を抽出することにより
前記衣服画像を得ることを特徴とする、請求項5記載の
試着シミュレーション方法。
6. A basic man image is obtained by photographing a mannequin doll, and the clothes image is obtained by extracting a portion of the clothes from an image photographed by putting clothes on the mannequin doll. The fitting simulation method according to claim 5.
【請求項7】前記体型情報は、試着対象人物画像の体の
輪郭の一部を表す輪郭情報である、請求項5記載の試着
シミュレーション方法。
7. The fitting simulation method according to claim 5, wherein the body type information is contour information representing a part of a contour of the body of the fitting-on target person image.
【請求項8】前記体型情報は、試着対象人物の一部の体
型情報と、この体型情報から推定された試着対象人物の
他の部分の体型情報とよりなる、請求項5記載の試着シ
ミュレーション方法。
8. The fitting simulation method according to claim 5, wherein the body type information includes body type information of a part of the person trying on and a body type information of another part of the person trying on estimated from the body type information. .
【請求項9】衣服画像の変形は、前記合成時に前記衣服
画像から前記基本的人物画像がはみ出るのを防止するた
めの変形である、請求項5記載の試着シミュレーション
方法。
9. The fitting simulation method according to claim 5, wherein the deformation of the clothes image is a deformation for preventing the basic person image from protruding from the clothes image during the combining.
【請求項10】衣服画像の変形は、前記合成時に前記衣
服画像の所定位置が、前記基本的人物画像の対応位置に
位置するための変形である、請求項5記載の試着シミュ
レーション方法。
10. The fitting simulation method according to claim 5, wherein the deformation of the clothes image is such that a predetermined position of the clothes image is located at a corresponding position of the basic person image during the combining.
【請求項11】衣服画像の変形のために、この衣服画像
と基本的人物画像との対応関係を表す対応データをメモ
リする、請求項5記載の試着シミュレーション方法。
11. The fitting simulation method according to claim 5, wherein correspondence data representing a correspondence relationship between the clothing image and the basic person image is stored for the deformation of the clothing image.
【請求項12】前記対応データの削除、追加、条件特定
等の対応データ編集を行う、請求項11記載の試着シミ
ュレーション方法。
12. The fitting simulation method according to claim 11, wherein the corresponding data is edited such as deleting, adding, and specifying the corresponding data.
JP7198498A 1995-08-03 1995-08-03 Trial wearing simulation method Pending JPH0944556A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7198498A JPH0944556A (en) 1995-08-03 1995-08-03 Trial wearing simulation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7198498A JPH0944556A (en) 1995-08-03 1995-08-03 Trial wearing simulation method

Publications (1)

Publication Number Publication Date
JPH0944556A true JPH0944556A (en) 1997-02-14

Family

ID=16392135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7198498A Pending JPH0944556A (en) 1995-08-03 1995-08-03 Trial wearing simulation method

Country Status (1)

Country Link
JP (1) JPH0944556A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001077910A1 (en) * 2000-04-07 2001-10-18 National Institute Of Advanced Industrial Science And Technology System for providing commodity fitness information
KR100431788B1 (en) * 2000-11-02 2004-05-17 주식회사 디엔엠 테크놀로지 A method for simulating virtual clothes
JP2005524777A (en) * 2002-03-22 2005-08-18 ワン,ケネス,クックキー Method and apparatus for viewing, storing and transmitting clothing models over a computer network
JP2007011543A (en) * 2005-06-29 2007-01-18 Dainippon Printing Co Ltd Article-wearing simulation system, article-wearing simulation method, and the like
US7308332B2 (en) 2005-03-11 2007-12-11 Kabushiki Kaisha Toshiba Virtual clothing modeling apparatus and method
JP2011501326A (en) * 2007-10-26 2011-01-06 ザズル ドット コム インコーポレイテッド Product modeling system and method
JP2011186774A (en) * 2010-03-09 2011-09-22 Naoyuki Matsuoka Try-on system, method for creating try-on image, and program
JP2013037445A (en) * 2011-08-04 2013-02-21 Toshiba Corp Image processing device, method, and program
JP2013069262A (en) * 2011-09-21 2013-04-18 National Cheng Kung Univ Characteristic data structure for digital human body model
JP2014179135A (en) * 2014-07-01 2014-09-25 Toshiba Corp Image processing system, method and program
JP2015181314A (en) * 2015-07-16 2015-10-15 ソニー株式会社 Image processing system, image processing method and program
JP2016001359A (en) * 2014-06-11 2016-01-07 士華 管 Method for displaying image of dressing
US9513788B2 (en) 2011-06-01 2016-12-06 Sony Corporation Image processing apparatus, image processing method, and program
US10366533B2 (en) 2015-03-20 2019-07-30 Kabushiki Kaisha Toshiba Image processing device and image processing method
WO2020230748A1 (en) * 2019-05-11 2020-11-19 株式会社キテミル Image generation device, method, and program, and virtual try-on system
WO2022196514A1 (en) * 2021-03-17 2022-09-22 ソフトバンク株式会社 Data processing device, program, and data processing method
CN116824002A (en) * 2023-06-19 2023-09-29 深圳市毫准科技有限公司 AI clothing try-on result output method based on fake model and related equipment

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4452845B2 (en) * 2000-04-07 2010-04-21 独立行政法人産業技術総合研究所 Product compliance information provision system
WO2001077910A1 (en) * 2000-04-07 2001-10-18 National Institute Of Advanced Industrial Science And Technology System for providing commodity fitness information
KR100431788B1 (en) * 2000-11-02 2004-05-17 주식회사 디엔엠 테크놀로지 A method for simulating virtual clothes
JP2005524777A (en) * 2002-03-22 2005-08-18 ワン,ケネス,クックキー Method and apparatus for viewing, storing and transmitting clothing models over a computer network
US7308332B2 (en) 2005-03-11 2007-12-11 Kabushiki Kaisha Toshiba Virtual clothing modeling apparatus and method
US7433753B2 (en) 2005-03-11 2008-10-07 Kabushiki Kaisha Toshiba Virtual clothing modeling apparatus and method
JP2007011543A (en) * 2005-06-29 2007-01-18 Dainippon Printing Co Ltd Article-wearing simulation system, article-wearing simulation method, and the like
JP2011501326A (en) * 2007-10-26 2011-01-06 ザズル ドット コム インコーポレイテッド Product modeling system and method
JP2011186774A (en) * 2010-03-09 2011-09-22 Naoyuki Matsuoka Try-on system, method for creating try-on image, and program
US10685394B2 (en) 2011-06-01 2020-06-16 Sony Corporation Image processing apparatus, image processing method, and program
US9513788B2 (en) 2011-06-01 2016-12-06 Sony Corporation Image processing apparatus, image processing method, and program
US10043212B2 (en) 2011-06-01 2018-08-07 Sony Corporation Image processing apparatus, image processing method, and program
JP2013037445A (en) * 2011-08-04 2013-02-21 Toshiba Corp Image processing device, method, and program
JP2013069262A (en) * 2011-09-21 2013-04-18 National Cheng Kung Univ Characteristic data structure for digital human body model
JP2016001359A (en) * 2014-06-11 2016-01-07 士華 管 Method for displaying image of dressing
JP2014179135A (en) * 2014-07-01 2014-09-25 Toshiba Corp Image processing system, method and program
US10366533B2 (en) 2015-03-20 2019-07-30 Kabushiki Kaisha Toshiba Image processing device and image processing method
JP2015181314A (en) * 2015-07-16 2015-10-15 ソニー株式会社 Image processing system, image processing method and program
WO2020230748A1 (en) * 2019-05-11 2020-11-19 株式会社キテミル Image generation device, method, and program, and virtual try-on system
JPWO2020230748A1 (en) * 2019-05-11 2021-09-27 株式会社キテミル Image generators, methods, programs, and virtual fitting systems
JP2022106923A (en) * 2019-05-11 2022-07-20 株式会社キテミル Image creation apparatus, method and program, and virtual fitting system
US11836833B2 (en) 2019-05-11 2023-12-05 Kabushiki Kaisha Kitemiru Image creation apparatus, method and program, and virtual fitting system
WO2022196514A1 (en) * 2021-03-17 2022-09-22 ソフトバンク株式会社 Data processing device, program, and data processing method
JP2022143060A (en) * 2021-03-17 2022-10-03 ソフトバンク株式会社 Data processing device, program and data processing method
JP2022145677A (en) * 2021-03-17 2022-10-04 ソフトバンク株式会社 Data processing apparatus, program, and data processing method
CN116824002A (en) * 2023-06-19 2023-09-29 深圳市毫准科技有限公司 AI clothing try-on result output method based on fake model and related equipment
CN116824002B (en) * 2023-06-19 2024-02-20 深圳市毫准科技有限公司 AI clothing try-on result output method based on fake model and related equipment

Similar Documents

Publication Publication Date Title
JPH0944556A (en) Trial wearing simulation method
US5680528A (en) Digital dressing room
US10311508B2 (en) Garment modeling simulation system and process
CN110096156B (en) Virtual reloading method based on 2D image
US8976230B1 (en) User interface and methods to adapt images for approximating torso dimensions to simulate the appearance of various states of dress
CN107292948B (en) Human body modeling method and device and electronic equipment
CN108053283B (en) Garment customization method based on 3D modeling
JPH10340282A (en) Device and method for virtual try-on of clothes and clothes manufacturing device
Markiewicz et al. 3D anthropometric algorithms for the estimation of measurements required for specialized garment design
JP6373026B2 (en) Image processing apparatus, image processing system, image processing method, and program
WO2016151691A1 (en) Image processing device, image processing system, image processing method, and program
CN110992454A (en) Real-time motion capture and three-dimensional animation generation method and device based on deep learning
US20130173226A1 (en) Garment modeling simulation system and process
JP6262105B2 (en) Image processing apparatus, image processing system, image processing method, and program
US20230248099A1 (en) Method and device for providing at least one cutting pattern for an article of clothing to be produced individually for a customer
CN110175897A (en) A kind of 3D synthesis fitting method and system
CN112734632B (en) Image processing method, device, electronic equipment and readable storage medium
US20210375045A1 (en) System and method for reconstructing a 3d human body under clothing
EP3779879A1 (en) Size measuring system
WO2020104990A1 (en) Virtually trying cloths & accessories on body model
KR20150011907A (en) Apparatus and Method for generating user's three dimensional body model based on depth information
CN114638929A (en) Online virtual fitting method and device, electronic equipment and storage medium
KR102468306B1 (en) Apparatus and method for measuring body size
US20240054704A1 (en) Methods of image manipulation for clothing visualisation
JPH09106419A (en) Clothes fitting simulation method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030722