JPH09102033A - Picture synthesis method - Google Patents

Picture synthesis method

Info

Publication number
JPH09102033A
JPH09102033A JP348996A JP348996A JPH09102033A JP H09102033 A JPH09102033 A JP H09102033A JP 348996 A JP348996 A JP 348996A JP 348996 A JP348996 A JP 348996A JP H09102033 A JPH09102033 A JP H09102033A
Authority
JP
Japan
Prior art keywords
image
contour
clothes
clothing
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP348996A
Other languages
Japanese (ja)
Inventor
Hiroshi Okamoto
浩 岡本
Yoji Sugiura
洋治 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP348996A priority Critical patent/JPH09102033A/en
Publication of JPH09102033A publication Critical patent/JPH09102033A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To output a natural synthesis picture without projection from CRT by detecting the projection of an outline and deforming the picture of a dress. SOLUTION: The pictures of a shirt and a jacket and the picture of a person who desires trying-on are stored in an external storage device 16. A microcomputer 14 overlaps and writes the outlines of the shirt and the jacket into a work memory 20. A part projected from the jacket in the outline of the shirt is detected. The shirt is deformed based on the result. The microcomputer 14 overwrites the outline of the person to the outlines of the shirt and the jacket, and deforms the jacket so that the outline of the person does not project from the outline of the jacket. The pictures of the shirt and the jacket are deformed based on the outlines, and the jacket, the shirt and the person are written into a layer 22 in the order. The respective pictures are synthesized and outputted from CRT 18.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は画像合成方法に関し、
特にたとえば重ね着する複数の衣服画像を合成したり、
人物画像に衣服画像を合成する、画像合成方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing method,
Especially, for example, you can combine multiple clothes images that are layered,
The present invention relates to an image synthesizing method for synthesizing a clothing image with a person image.

【0002】[0002]

【従来の技術】従来のこの種の画像合成方法の一例が、
平成6年7月8日に出願公開された特開平6−1873
98号公報〔G06F 15/60〕に開示されてい
る。この従来技術は、試着を希望する人物の画像から輪
郭線を抽出し、その輪郭線上の所定の位置に2つの点を
付し、そしてその間隔に基づいて試着しようとする衣服
の画像を拡大または縮小してその人物の画像に合成しよ
うとするものである。
2. Description of the Related Art An example of a conventional image synthesizing method of this type is
Japanese Patent Application Laid-Open No. 6-1873 filed on July 8, 1994
No. 98 [G06F 15/60]. According to this conventional technique, a contour line is extracted from an image of a person who wants to be tried on, two points are added at predetermined positions on the contour line, and an image of clothes to be tried on is enlarged or enlarged based on the intervals. It is intended to reduce the size and synthesize it with the image of the person.

【0003】[0003]

【発明が解決しようとする課題】しかし、このような従
来技術を用いてたとえば図26(A)に示すシャツの画
像の輪郭線上に2つの点を付し、その間隔に基づいて図
26(B)に示すジャケットの画像を拡大縮小してシャ
ツに合成する場合、図27に示すようにシャツの袖がジ
ャケットからはみ出してしまい、不自然な合成画像が出
力されるという問題点があった。また、シャツとスカー
トなどのように異なる位置に着衣される衣服の画像を合
成表示する場合、単にそれらの衣服を人物画像に合成し
ただけでは、図24のように衣服の間に隙間があき、不
自然な合成画像が出力されるという問題があった。
However, using such a conventional technique, for example, two points are added to the outline of the image of the shirt shown in FIG. 26 (A), and FIG. When the image of the jacket shown in) is scaled up and down to be combined with the shirt, the sleeve of the shirt protrudes from the jacket as shown in FIG. 27, and an unnatural combined image is output. When images of clothes such as shirts and skirts that are worn at different positions are displayed in a composite manner, simply combining those clothes with a person image causes a gap between the clothes as shown in FIG. There was a problem that an unnatural synthetic image was output.

【0004】それゆえに、この発明の主たる目的は、自
然な合成画像を出力することができる、画像合成方法を
提供することである。
Therefore, a main object of the present invention is to provide an image synthesizing method capable of outputting a natural synthetic image.

【0005】[0005]

【課題を解決するための手段】第1の発明は、(a) 第1
画像および第2画像をメモリし、(b) 第1画像の第1輪
郭および第2画像の第2輪郭を重ね合わせた場合に第1
輪郭および第2輪郭のいずれか一方が他方からはみ出す
はみ出し部分を検出し、(c) 検出結果に基づいてはみ出
しが生じないように第1画像および第2画像の少なくと
も一方を変形し、そして(d) 第1画像と第2画像を合成
する、画像合成方法である。
The first invention is (a) first
The image and the second image are stored, and (b) the first contour when the first contour of the first image and the second contour of the second image are superposed on each other.
One of the contour and the second contour detects a protruding portion protruding from the other, and (c) deforms at least one of the first image and the second image so that the protrusion does not occur, and (d ) An image synthesizing method of synthesizing the first image and the second image.

【0006】第2の発明は、(a) 第1衣服画像および複
数の第2衣服画像をメモリし、(b)第1衣服画像の第1
輪郭および1の第2衣服画像の第2輪郭を重ね合わせた
場合に第2輪郭の所定部分が第1輪郭からはみ出すかど
うか判別し、(c) 判別結果に基づいてはみ出しのない第
2衣服画像を選択し、そして(d) 第1衣服画像と選択し
た第2衣服画像とを合成する、画像合成方法である。
A second invention is (a) storing a first clothing image and a plurality of second clothing images, and (b) a first clothing image.
It is determined whether or not a predetermined portion of the second contour protrudes from the first contour when the contour and the second contour of the first second clothing image are overlapped, and (c) the second clothing image without protrusion based on the determination result. Is selected, and (d) the first clothes image and the selected second clothes image are combined.

【0007】第3の発明は、(a) メモリを準備し、(b)
上半身に着衣される第1衣服画像および下半身に着衣さ
れる第2衣服画像をメモリの所定位置に書き込み、(c)
第1衣服画像および第2衣服画像が一部において互いに
重なり合うように第1衣服画像および第2衣服画像の少
なくとも一方を変形し、そして(d) 第1衣服画像および
第2衣服画像を合成する、画像合成方法である。
A third invention is (a) preparing a memory, and (b)
Writing the first clothes image to be worn on the upper half of the body and the second clothes image to be worn on the lower half of the body at a predetermined position in the memory, (c)
Transforming at least one of the first clothes image and the second clothes image such that the first clothes image and the second clothes image partially overlap each other, and (d) combine the first clothes image and the second clothes image, This is an image composition method.

【0008】[0008]

【作用】第1の発明では、たとえばマネキンに別々に第
1衣服および第2衣服を着せそれぞれをビデオカメラで
撮影することによって、第1衣服画像および第2衣服画
像をメモリに書き込む。次にたとえば第1衣服画像およ
び第2衣服画像の輪郭を重ね合わせて、たとえば第2輪
郭の所定部分のうち第1輪郭からはみ出している部分を
検出する。そして、その検出結果に基づいて第2衣服画
像を変形し、変形した第2衣服画像と第1衣服画像とを
合成する。
According to the first aspect of the present invention, the first clothes image and the second clothes image are written in the memory by, for example, separately wearing the first clothes and the second clothes on the mannequin and photographing each with a video camera. Next, for example, the contours of the first clothing image and the second clothing image are overlapped with each other, and, for example, a portion of the predetermined portion of the second contour that is out of the first contour is detected. Then, the second clothes image is deformed based on the detection result, and the deformed second clothes image and the first clothes image are combined.

【0009】第2の発明では、第1の発明と同様にして
第1衣服画像および第2衣服画像をメモリに書き込み、
たとえば第1衣服画像の第1輪郭と1の第2衣服画像の
第2輪郭とを重ね合わせて、第2輪郭の所定部分が第1
輪郭からはみ出すかどうかを判別する。そして、その判
別結果に基づいてはみ出しのない第2衣服画像を選択
し、第1衣服画像と選択した第2衣服画像とを合成す
る。
In the second invention, the first clothes image and the second clothes image are written in the memory in the same manner as in the first invention,
For example, the first contour of the first clothing image and the second contour of the first second clothing image are overlapped, and the predetermined portion of the second contour is the first portion.
It is determined whether or not it extends from the contour. Then, based on the determination result, the second clothes image having no protrusion is selected, and the first clothes image and the selected second clothes image are combined.

【0010】第3の発明では、第1の発明と同様にして
第1衣服画像および第2衣服画像をメモリの所定位置に
書き込み、第1衣服画像および第2衣服画像が一部にお
いて互いに重なり合うように第1衣服画像および第2衣
服画像の少なくとも一方を変形する。たとえば、第1衣
服画像の下方における第1輪郭および第2衣服画像の上
方における第2輪郭を指定し、第1輪郭および第2輪郭
の最も離れた2点が一致するように第1衣服画像および
第2衣服画像の少なくとも一方を変形する。その後、第
1衣服画像および第2衣服画像を合成する。
In the third invention, the first clothes image and the second clothes image are written in a predetermined position of the memory in the same manner as in the first invention so that the first clothes image and the second clothes image partially overlap each other. At least one of the first clothes image and the second clothes image is transformed to. For example, a first contour below the first clothing image and a second contour above the second clothing image are designated, and the first clothing image and the second contour are arranged so that the two points that are most distant from each other coincide with each other. At least one of the second clothing images is transformed. Then, the first clothes image and the second clothes image are combined.

【0011】[0011]

【発明の効果】第1の発明によれば、第1輪郭および第
2輪郭の間におけるはみ出しを検出して第2画像を変形
し、変形した第2画像と第1画像とを合成するようにし
たため、はみ出しのない自然な画像を出力することがで
きる。第2の発明によれば、第2輪郭の第1輪郭からの
はみ出しを判別してはみ出しの生じない第2衣服画像を
選択し、これを第1衣服画像に合成するようにしたた
め、はみ出しのない自然な画像を出力することができ
る。
According to the first aspect of the present invention, the protrusion between the first contour and the second contour is detected, the second image is deformed, and the deformed second image and first image are combined. Therefore, it is possible to output a natural image that does not overflow. According to the second aspect of the present invention, it is possible to determine whether the second contour extends beyond the first contour, select a second clothing image that does not cause the second contour, and combine the second clothing image with the first clothing image. A natural image can be output.

【0012】第3の発明によれば、第1衣服画像および
第2衣服画像が一部において互いに重なり合うように第
1衣服画像および第2衣服画像の少なくとも一方を変形
するようにしたため、第1衣服画像と第2衣服画像との
間に隙間のない自然な合成画像を出力することができ
る。この発明の上述の目的,その他の目的,特徴および
利点は、図面を参照して行う以下の実施例の詳細な説明
から一層明らかとなろう。
According to the third invention, at least one of the first clothes image and the second clothes image is deformed so that the first clothes image and the second clothes image partially overlap each other. Therefore, the first clothes image is deformed. It is possible to output a natural composite image with no gap between the image and the second clothing image. The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

【0013】[0013]

【実施例】図1を参照して、この実施例の画像合成装置
10はビデオカメラ12を含む。ビデオカメラ12はま
ず図3(B)に示すマネキン26の画像から衣服画像を
抽出し、これを外部記憶装置16にメモリする。ビデオ
カメラ12は次に試着を希望するかつ図9(B)に示す
人物28の画像を取り込み、外部記憶装置16にメモリ
する。その後、マイコン14はマウス24からの入力信
号に応じて所望の衣服を人物28の画像に合成し、合成
画像をCRT18から出力する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Referring to FIG. 1, an image synthesizing apparatus 10 of this embodiment includes a video camera 12. The video camera 12 first extracts a clothing image from the image of the mannequin 26 shown in FIG. 3 (B) and stores it in the external storage device 16. Next, the video camera 12 captures the image of the person 28 who wants to try on and is shown in FIG. 9B, and stores it in the external storage device 16. After that, the microcomputer 14 synthesizes desired clothes with the image of the person 28 according to the input signal from the mouse 24, and outputs the synthesized image from the CRT 18.

【0014】マイコン14は図2に示すフローに従って
衣服画像を抽出し、外部記憶装置16に書き込む。すな
わち、まずステップS1で図3(A)に示す上半身裸の
マネキン26の画像をワークメモリ20に書き込み、次
にステップS3で図3(B)に示すように上半身に衣服
を着せたマネキン26の画像をワークメモリ20に書き
込む。次に、ステップS5で両画像の差分を検出し、差
分値が0以外の値となる画素に対応するかつ図3(B)
の画像に含まれる画素を抽出する。これによって上半身
の衣服画像が抽出される。続いて、ステップS7でこの
衣服画像データをRGBAフォーマットに変換し、ステ
ップS9でその衣服画像をCRT18に表示する。した
がって、CRT18には図4に示す衣服画像が表示され
る。
The microcomputer 14 extracts a clothing image according to the flow shown in FIG. 2 and writes it in the external storage device 16. That is, first, in step S1, the image of the upper bodyless mannequin 26 shown in FIG. 3A is written in the work memory 20, and then in step S3, as shown in FIG. The image is written in the work memory 20. Next, in step S5, the difference between the two images is detected, and the difference value corresponds to the pixel having a value other than 0, and FIG.
Pixels included in the image are extracted. As a result, the clothes image of the upper body is extracted. Subsequently, the clothes image data is converted into the RGBA format in step S7, and the clothes image is displayed on the CRT 18 in step S9. Therefore, the clothing image shown in FIG. 4 is displayed on the CRT 18.

【0015】なお、RGBAフォーマットにおける
“A”は合成する画像と合成される画像の合成比率を
“0”から“255”の範囲で表すアルファ値を意味す
る。つまり、透過性の衣服であれば透過度に合ったアル
ファ値となる。この実施例では画像の輪郭を抽出するた
めにこのアルファ値を流用する。すなわち、抽出画像に
含まれる画素のアルファ値を“1”〜“255”とし、
それ以外の画素のアルファ値を“0”とすると、衣服画
像の輪郭付近のアルファ値は図6に示すように表される
ため、このアルファ値の変化点を手掛かりとして輪郭線
が検出される。
"A" in the RGBA format means an alpha value which represents a combination ratio of an image to be combined with an image to be combined in a range of "0" to "255". That is, in the case of transparent clothes, the alpha value matches the transparency. In this embodiment, this alpha value is used to extract the contour of the image. That is, the alpha values of the pixels included in the extracted image are set to "1" to "255",
If the alpha values of the other pixels are set to "0", the alpha values near the contour of the clothing image are expressed as shown in FIG. 6, and the contour line is detected with the changing point of this alpha value as a clue.

【0016】ステップS9の処理を終えると、次にステ
ップS11で、オペレータがマウス24を操作して衣服
画像の輪郭線上に図5のように特徴点が付されたかどう
か判断する。そして“YES”であれば、ステップS1
3で衣服画像データおよび特徴点を外部記憶装置16に
メモリし処理を終了する。このような処理を複数種類の
衣服に対して行うことによって、外部記憶装置16には
図7(A)〜(D)に示す衣服画像30a〜30dがメ
モリされる。なお、外部記憶装置16には複数サイズの
衣服画像30a〜30dがメモリされる。
When the processing of step S9 is completed, next, in step S11, the operator operates the mouse 24 to determine whether or not a feature point is added to the contour line of the clothes image as shown in FIG. If “YES”, step S1
At 3, the clothing image data and the feature points are stored in the external storage device 16 and the process is terminated. By performing such processing on a plurality of types of clothes, the external storage device 16 stores the clothes images 30a to 30d shown in FIGS. The external storage device 16 stores clothes images 30a to 30d of a plurality of sizes.

【0017】マイコン14は次に、図8に示すフローに
従って図11に示すように輪郭線上に特徴点が付された
かつ試着を希望する人物28の画像データを外部記憶装
置16にメモリする。すなわち、まずステップS15で
図9(A)に示す背景画像をワークメモリ20に書き込
み、次にステップS17で図9(B)に示すように背景
の前にマネキン26と同じポーズで立たせたかつ衣服を
着ていない人物28の画像をワークメモリ20に書き込
む。続いて、ステップS19で両画像の差分をとり差分
値が0でない画素に対応するかつステップS17で取り
込んだ画像に含まれる画素を抽出する。これによって背
景が取り除かれた人物画像のみが得られる。その後ステ
ップS21でこの人物画像データをRGBAフォーマッ
トに変換しステップS23でCRT18に表示する。し
たがって、CRT18には図10に示す人物画像が表示
される。この場合も人物画像に含まれる画素のアルファ
値は全て“255”であり、人物画像以外の画素のアル
ファ値は“0”である。その後、ステップS25でオペ
レータがマウス24を操作して図11に示すように人物
画像の輪郭線上に特徴点を付したかどうか判断し、“Y
ES”であれば、ステップS29でこの人物画像データ
および特徴点を外部記憶装置16に書き込んで処理を終
了する。
Next, the microcomputer 14 stores in the external storage device 16 the image data of the person 28 who has feature points on the contour line and who wants to try on as shown in FIG. 11 according to the flow shown in FIG. That is, first, in step S15, the background image shown in FIG. 9A is written in the work memory 20, and then in step S17, as shown in FIG. 9B, the background image shown in FIG. The image of the person 28 not wearing is written in the work memory 20. Subsequently, in step S19, the difference between the two images is calculated, and the pixel corresponding to the pixel whose difference value is not 0 and included in the image captured in step S17 is extracted. As a result, only the person image with the background removed can be obtained. After that, this person image data is converted into the RGBA format in step S21 and displayed on the CRT 18 in step S23. Therefore, the person image shown in FIG. 10 is displayed on the CRT 18. Also in this case, all the alpha values of the pixels included in the person image are “255”, and the alpha values of the pixels other than the person image are “0”. Thereafter, in step S25, the operator operates the mouse 24 to determine whether or not a feature point is added to the contour line of the person image as shown in FIG.
If "ES", the person image data and the characteristic points are written in the external storage device 16 in step S29, and the process ends.

【0018】このようにして複数種類の衣服画像30a
〜30dのデータおよび試着を希望する人物28の画像
データが外部記憶装置16にメモリされると、マイコン
14は図12〜図15に示すフローに従って所望の衣服
画像を人物画像に合成する処理を行う。すなわち、まず
ステップS29で外部記憶装置16から読み出した複数
の衣服画像30a〜30dをCRT18にマルチ表示す
る。次に、ステップS31でオペレータによって合成す
る衣服画像が選択されたかどうか判断し、“YES”で
あれば、ステップS33で衣服画像および人物画像をレ
イヤ22に記録する。レイヤ22は3層からなり、ステ
ップS31で選択された衣服画像が図7(B)および
(C)に示す衣服画像30bおよび30cとすると、衣
服画像30cはレイヤ22の第1層に、衣服画像30b
は第2層に、そして人物28の画像は第3層に記録され
る。続いて、ステップS35で第1層に書き込まれた衣
服画像30cの輪郭線32cをアルファ値によって検出
してワークメモリ20に書き込み、これに図16に示す
ように特徴点“1”〜“12”および点線で囲まれる複
数の領域を指定する。続いて、ステップS37でレイヤ
22の第2層に書き込まれた衣服画像30bの輪郭線3
2bを検出し、衣服画像30bおよび30cに付された
特徴点“1”〜“12”に従って図17に示すように輪
郭線32cに重ね書きする。
In this way, a plurality of types of clothes images 30a
When the data up to 30d and the image data of the person 28 who wants to be tried on are stored in the external storage device 16, the microcomputer 14 performs a process of combining the desired clothes image with the person image according to the flow shown in FIGS. . That is, first, the plurality of clothing images 30a to 30d read from the external storage device 16 in step S29 are multi-displayed on the CRT 18. Next, in step S31, it is determined whether or not a clothing image to be combined is selected by the operator. If “YES”, the clothing image and the person image are recorded in the layer 22 in step S33. If the clothing image selected in step S31 is the clothing images 30b and 30c shown in FIGS. 7B and 7C, the clothing image 30c is the first layer of the layer 22 and the clothing image is the layer 22. 30b
Is recorded in the second layer, and the image of the person 28 is recorded in the third layer. Then, in step S35, the contour line 32c of the clothing image 30c written in the first layer is detected by the alpha value and written in the work memory 20, and the feature points "1" to "12" are written therein as shown in FIG. And specify multiple areas enclosed by dotted lines. Then, the contour line 3 of the clothing image 30b written in the second layer of the layer 22 in step S37.
2b is detected and is overwritten on the contour line 32c as shown in FIG. 17 in accordance with the characteristic points "1" to "12" attached to the clothes images 30b and 30c.

【0019】ここで、領域を仕切る点a〜tの位置につ
いて説明する。点a,b,tおよびnは輪郭線32bお
よび32cを囲むように位置する点で、点aは特徴点
“1”および“7”の延長線上にあり、点bは特徴点
“4”と“10”との延長線上にある。点cは特徴点
“1”と“7”との中間点に位置し、点eは特徴点
“4”と“10”との中間点に位置し、点dは点cおよ
びeの中間点に位置し、そして、点fは特徴点“7”と
“10”との中間点に位置する。点pは特徴点“6”お
よび“8”の中間点と特徴点“7”を通り線分npと交
わる点であり、点rは特徴点“10”と特徴点“9”お
よび“11”の中間点とを通り線分ntと交わる点であ
る。点gは特徴点“5”および“6”を通る直線が線分
anと交わる点で、点hは特徴点“5”および“6”の
中間点であり、そして点iは特徴点“5”および“6”
を通る直線が線分7pと交わる点である。
Now, the positions of the points a to t which partition the area will be described. The points a, b, t, and n are positioned so as to surround the contour lines 32b and 32c, the point a is on the extension line of the characteristic points "1" and "7", and the point b is the characteristic point "4". It is an extension of "10". The point c is located at the midpoint between the feature points “1” and “7”, the point e is located at the midpoint between the feature points “4” and “10”, and the point d is the midpoint between the points c and e. , And the point f is located at the midpoint between the feature points “7” and “10”. The point p is a point that passes through the midpoint of the characteristic points “6” and “8” and the characteristic point “7” and intersects the line segment np, and the point r is the characteristic point “10” and the characteristic points “9” and “11”. Is a point that passes through the midpoint of and intersects the line segment nt. A point g is a point where a straight line passing through the characteristic points “5” and “6” intersects the line segment an, a point h is an intermediate point between the characteristic points “5” and “6”, and a point i is a characteristic point “5”. "And" 6 "
A straight line passing through is a point intersecting with the line segment 7p.

【0020】点mは特徴点“11”および“12”を通
る直線が線分btと交わる点であり、点lは特徴点“1
1”および“12”の中間点であり、そして点kは特徴
点“11”および“12”を通る直線が線分10rと交
わる点である。点jは特徴点“8”および“9”の中間
点で、点qは点fおよびjを通る直線の線分ntとの交
点である。点oは点cおよびhを通る直線と線分ntと
の交点で、点sは点eおよびlを通る直線と線分ntと
の交点である。以上のように規定した各点によって領域
abec,cdf7,de10f,achg,c7i
h,7fqp,f10rq,10elk,eblm,g
hon,hipo,klsrおよびlmtsが形成され
る。
A point m is a point where a straight line passing through the characteristic points "11" and "12" intersects the line segment bt, and a point l is a characteristic point "1".
It is an intermediate point between 1 "and" 12 ", and a point k is a point where a straight line passing through the characteristic points" 11 "and" 12 "intersects with the line segment 10r. A point j is characteristic points" 8 "and" 9 ". Is an intersection of a line segment nt of a straight line passing through the points f and j, a point o is an intersection of a line segment nt passing through the points c and h, and a point s is a point e and It is the intersection of the straight line passing through 1 and the line segment nt.The regions abec, cdf7, de10f, achg, c7i are defined by the points defined above.
h, 7fqp, f10rq, 10elk, eblm, g
hon, hippo, klsr and lmts are formed.

【0021】ステップS39では、特徴点“1”→
“2”,“3”→“4”,“4”→“12”,“11”
→“10”,“10”→“9”,“8”→“7”,
“7”→“6”および“5”→“1”において、輪郭線
32bが輪郭線32cをはみ出しているかどうかチェッ
クし、ステップS41でこのいずれかにおいて輪郭のは
み出しがあったかどうか判断する。ここで“NO”であ
ればステップS49に移行するが、“YES”であれ
ば、ステップS43で同種類の衣服画像で袖や胴の部分
がはみ出さない画像があるかどうか判断する。そしてこ
こで“YES”であればステップS47に移行するが、
“NO”であれば、ステップS45ではみ出し部分を変
形しステップS47に移行する。ステップS47では次
に処理する衣服画像があるかどうか判断し、“YES”
であればステップS37に戻るが、“NO”であればス
テップS49でレイヤ22の第3層に記録された人物2
8の画像の輪郭線28aを検出してワークメモリ20に
書き込み、図18に示すように特徴点“1′”〜“1
2′”および領域を指定する。
In step S39, the characteristic point "1" →
"2", "3" → "4", "4" → "12", "11"
→ "10", "10" → "9", "8" → "7",
In "7" → "6" and "5" → "1", it is checked whether or not the contour line 32b protrudes from the contour line 32c, and in step S41, it is determined whether or not the contour line protrudes. If "NO" here, the process proceeds to a step S49, but if "YES", it is determined at a step S43 whether or not there is an image of the same type of clothing image in which the sleeve or the trunk portion does not protrude. If "YES" here, the process proceeds to step S47.
If "NO", the protruding portion is deformed in step S45, and the process proceeds to step S47. In step S47, it is determined whether there is a clothing image to be processed next, and "YES".
If so, the process returns to step S37, but if “NO”, the person 2 recorded in the third layer of the layer 22 in step S49
The contour line 28a of the image No. 8 is detected and written in the work memory 20, and the feature points "1 '" to "1" as shown in FIG.
2 '"and area are designated.

【0022】続いてステップS51で、ステップS45
で変形した輪郭線を、その特徴点“1”〜“12”およ
び人物28の特徴点“1′”〜“12′”に従って図1
9に示すように人物画像に重ね書きする。その後、ステ
ップS53で特徴点“1′”→“2′”,“3′”→
“4′”,“4′”→“12′”,“11′”→“1
0′”,“10′”→“9′”,“8′”→“7′”,
“7′”→“6′”および“5′”→“1′”において
輪郭線28aが輪郭線32cからはみ出しているかどう
かチェックし、ステップS55で輪郭線32cを変形す
る。その後ステップS57で、変形した輪郭線32cお
よび32bに従ってレイヤ22の第1層および第2層に
書き込まれた衣服画像30cおよび30bを変形し、ス
テップS59でこれらの衣服画像30cおよび30bと
第3層に書き込まれた人物28画像とを平行投影して合
成画像を作成する。このとき、それぞれの画像が重なる
領域についてはレイヤの上位の層が優先して合成され
る。そして、ステップS61で合成画像をCRT18に
表示して処理を終了する。
Then, in step S51, step S45
The contour line deformed in accordance with the characteristic points "1" to "12" and the characteristic points "1 '" to "12'" of the person 28 in FIG.
As shown in 9, the person image is overwritten. After that, in step S53, the characteristic points “1 ′” → “2 ′”, “3 ′” →
"4 '", "4'" → "12 '", "11'" → "1"
0 '","10'"→" 9 '","8'"→" 7 '",
In "7 '" → "6'" and "5 '" → "1'", it is checked whether the contour line 28a is out of the contour line 32c, and the contour line 32c is deformed in step S55. Then, in step S57, the clothes images 30c and 30b written in the first and second layers of the layer 22 are deformed according to the deformed contour lines 32c and 32b, and in step S59, the clothes images 30c and 30b and the third layer. The image of the person 28 written in is projected in parallel to create a composite image. At this time, with respect to the area where the respective images overlap, the upper layers of the layers are preferentially combined. Then, in step S61, the composite image is displayed on the CRT 18, and the process ends.

【0023】マイコン14は、ステップS45を図14
に示すサブルーチンに従って処理する。すなわち、まず
ステップS65で輪郭線32cのうち特徴点“1”およ
び“2”で結ばれる部分で輪郭線32bがはみ出してい
るかどうか判断し、“NO”であればステップS71に
移行するが、“YES”であれば、ステップS67で互
いの距離が最大となる2つの点を検出する。そして、ス
テップS69で、その2つの点が重なるという条件およ
びはみ出している輪郭線を囲む領域の点線上に位置する
かつ輪郭線32cに含まれる点(ここでは点c,dおよ
びe)をそのままにしておくという条件で輪郭線32b
をアフィン変換する。同様にしてステップS71〜S8
1で輪郭線32dのうち特徴点“3”および“4”で結
ばれる部分,特徴点“4”および“12”で結ばれる部
分,特徴点“11”および“10”で結ばれる部分,
“10”および“9”で結ばれる部分,特徴点“8”お
よび“7”で結ばれる部分,特徴点“7”および“6”
で結ばれる部分および特徴点“5”および“1”で囲ま
れる部分についてアフィン変換する。
The microcomputer 14 executes step S45 in FIG.
Process according to the subroutine shown in. That is, first, in step S65, it is determined whether or not the contour line 32b is protruding at the portion connected by the characteristic points "1" and "2" of the contour line 32c. If "NO", the process proceeds to step S71. If "YES", in step S67, two points having the maximum mutual distance are detected. Then, in step S69, the condition that the two points overlap and the points (here, points c, d, and e) located on the dotted line of the area surrounding the protruding contour line and included in the contour line 32c are left unchanged. The contour line 32b
Is affine transformed. Similarly, steps S71 to S8
1, the portion of the contour line 32d connected by the characteristic points "3" and "4", the portion connected by the characteristic points "4" and "12", the portion connected by the characteristic points "11" and "10",
Portions connected by "10" and "9", portions connected by feature points "8" and "7", feature points "7" and "6"
Affine transformation is applied to the portion connected by and the portion surrounded by the characteristic points “5” and “1”.

【0024】マイコン14はまた、ステップS55を図
15に示すサブルーチンに従って処理する。すなわち、
まずステップS81で図19に示す特徴点“1′”→
“2′”において輪郭線28aが輪郭線32cをはみ出
しているかどうか判断し、“NO”であればステップS
89に移行するが、“YES”であれば、ステップS8
5で互いの距離が最大となる2つの点を検出し、ステッ
プS69と同様に輪郭線32cをアフィン変換する。同
様にしてステップS89〜S99で特徴点“3′”→
“4′”,特徴点“4′”→“12′”,特徴点“1
1′”→“10′”,特徴点“10′”→“9′”,特
徴点“8′”→“7′”,特徴点“7′”→“6′”お
よび特徴点“5′”→“1′”についてはみ出しを検出
してアフィン変換する。なお、アフィン変換によって変
形する輪郭線は基本的には輪郭線32cであるが、輪郭
線32cから輪郭線32bがはみ出している部分(袖の
部分)については輪郭線32bをアフィン変換する。こ
れによって、図20のように輪郭線32bから輪郭線2
8aがはみ出している場合には、図21のように輪郭線
32bがアフィン変換される。
The microcomputer 14 also processes step S55 in accordance with the subroutine shown in FIG. That is,
First, at step S81, the characteristic point "1 '" shown in FIG.
In "2 '", it is determined whether the contour line 28a extends beyond the contour line 32c, and if "NO", step S
The process proceeds to step 89, but if "YES", step S8
In step 5, two points having the maximum mutual distance are detected, and the contour line 32c is affine-transformed as in step S69. Similarly, in steps S89 to S99, the feature point “3 ′” →
"4 '", feature point "4'" → "12 '", feature point "1"
1 ′ ”→“ 10 ′ ”, characteristic point“ 10 ′ ”→“ 9 ′ ”, characteristic point“ 8 ′ ”→“ 7 ′ ”, characteristic point“ 7 ′ ”→“ 6 ′ ”and characteristic point“ 5 ′ ” "-""1'" is detected and the affine transformation is performed. The contour line deformed by the affine transformation is basically the contour line 32c, but the portion where the contour line 32b protrudes from the contour line 32c ( For the sleeve portion), the contour line 32b is affine-transformed, so that the contour line 32b is changed to the contour line 2 as shown in FIG.
When 8a is protruding, the contour line 32b is affine-transformed as shown in FIG.

【0025】この実施例によれば、下に着られる衣服の
画像がその上に着られる衣服画像からはみ出す部分を検
出して下に着られる衣服画像を変形し、さらに衣服画像
と人物画像との間でのはみ出しを検出して衣服画像を変
形するようにしたため、人物画像に衣服画像を合成する
場合に、はみ出しのない自然な試着画像を出力すること
ができる。
According to this embodiment, the image of the clothes to be worn underneath is detected by detecting a portion protruding from the clothes image to be worn on the clothes, and the clothes image to be worn below is transformed, and further, the clothes image and the person image are combined. Since the clothes image is deformed by detecting the protrusion between the clothes, a natural fitting image without protrusion can be output when the clothes image is combined with the person image.

【0026】なお、この実施例では衣服画像30bおよ
び30cを用いて説明したが、この発明はスカートやセ
ーターなどの衣服画像についても適用できることはもち
ろんである。また、この実施例では衣服画像の輪郭を重
ね合わせてはみ出し部分を検出するようにしたが、それ
ぞれの輪郭の座標データを比較してはみ出し部分を検出
するようにしてもよい。
Although the clothing images 30b and 30c have been described in this embodiment, the present invention can of course be applied to clothing images such as skirts and sweaters. Further, in this embodiment, the contours of the clothing image are overlapped to detect the protruding portion, but the coordinate data of the respective contours may be compared to detect the protruding portion.

【0027】他の実施例の画像合成装置10は図1に示
す画像合成装置10とほぼ同様であるため、この実施例
の説明に当たって図1を援用し、異なる点についてのみ
説明する。外部記憶装置16にはビデオカメラ12によ
って取り込まれた上半身用および下半身用の衣服画像が
外部記憶装置16に書き込まれており、マイコン14は
図22および図23に示すフロー図を処理してその衣服
画像をCRT18に表示する。
Since the image synthesizing apparatus 10 of the other embodiment is almost the same as the image synthesizing apparatus 10 shown in FIG. 1, FIG. 1 is referred to in describing this embodiment, and only different points will be described. The upper-body and lower-body clothing images captured by the video camera 12 are written in the external storage device 16 in the external storage device 16, and the microcomputer 14 processes the flow charts shown in FIGS. The image is displayed on the CRT 18.

【0028】まず図22を参照して、マイコン14はま
ずステップS1で上半身用の衣服画像をレイヤ22の第
1層に書き込み、次にステップS3で下半身用の衣服画
像をレイヤ22の第2層に書き込む。続いてステップS
5でそれぞれの衣服画像の輪郭をワークメモリ20に書
き込み、ステップS7およびS9のそれぞれで上半身用
の衣服画像の輪郭1→2が指定されたか、および下半身
用の衣服画像の輪郭3→4が指定されたかを判断する。
ここで、輪郭1→2および3→4とは、図24からわか
るように、上半身用の衣服画像の裾部分の輪郭および下
半身用の衣服画像のウエスト部分の輪郭である。ここで
いずれも“YES”であれば、ステップS11で輪郭1
→2および3→4の最も離れた2点が一致するように上
半身用の衣服画像の輪郭をアフィン変換する。これによ
って上半身用の衣服画像の輪郭1→2は、図25に示す
ように輪郭1′→2′の位置まで移動する。
First, referring to FIG. 22, the microcomputer 14 first writes the clothing image for the upper half of the body in the first layer of the layer 22 in step S1, and then writes the clothing image for the lower half of the body in the second layer of the layer 22 in step S3. Write in. Then step S
In step 5, the contours of the respective clothing images are written in the work memory 20, and in steps S7 and S9, the contours 1 → 2 of the clothing image for the upper body are designated, and the contours 3 → 4 of the clothing image for the lower body are designated. Judge whether it was done.
Here, the contours 1 → 2 and 3 → 4 are the contours of the hem portion of the clothing image for the upper body and the contours of the waist portion of the clothing image for the lower body, as can be seen from FIG. If both are "YES" here, the contour 1 is determined in step S11.
The contour of the upper body clothing image is affine-transformed so that the two most distant points of → 2 and 3 → 4 match. As a result, the contour 1 → 2 of the upper body clothing image moves to the position of contour 1 ′ → 2 ′ as shown in FIG.

【0029】その後、ステップS13で上半身用の衣服
画像の輪郭上に点3および4があるかどうか判断し、
“YES”であれば直接ステップS17に移行するが、
“NO”であれば、ステップS15で点3および4が上
半身用の衣服画像の輪郭上にくるようにその輪郭をアフ
ィン変換し、ステップS17に移行する。ステップS1
7では、このようにして変換された輪郭に従ってレイヤ
第1層および第2層の衣服画像を変形する。その後、ス
テップS19で上半身用および下半身用の衣服画像を平
行投影して合成像を作成し、ステップS21でその合成
像をCRT18に表示し、そして処理を終了する。
Then, in step S13, it is judged whether or not there are points 3 and 4 on the contour of the upper body clothing image,
If “YES”, the process directly proceeds to step S17,
If "NO", the contour is affine-transformed in step S15 so that the points 3 and 4 are on the contour of the upper body clothing image, and the process proceeds to step S17. Step S1
In 7, the clothes images in the first layer and the second layer are transformed according to the contours thus converted. After that, in step S19, the upper half-body and lower half-body clothes images are projected in parallel to form a composite image, and in step S21 the composite image is displayed on the CRT 18, and the process ends.

【0030】このようにマイコン14が処理することに
よって、シャツおよびスカートを実際に身につけた状態
でCRT18に表示するときは、シャツとスカートの間
に隙間ができることはなく、合成画像を自然に表示する
ことができる。なお、これらの実施例では外部記憶装置
に衣服画像などをメモリするようにしたが、実際に製品
化するときは、次のように実施することが考えられる。
すなわち、衣服画像およびモデル画像を予め収めた商品
カタログCD−ROMを発行し、ユーザは特定の撮影サ
ービス部門で自分の画像を撮影してFDに収める。そし
て、ユーザは自分自身に衣服を合成したりモデル画像に
衣服を合成する試着シミュレーションを行う。
As a result of the processing performed by the microcomputer 14 in this way, when the shirt and skirt are actually worn on the CRT 18, there is no gap between the shirt and the skirt, and the composite image is displayed naturally. can do. Although the clothes image and the like are stored in the external storage device in these embodiments, it is conceivable to carry out the following in actual commercialization.
That is, a product catalog CD-ROM in which clothing images and model images are stored in advance is issued, and the user photographs his or her image in a specific photographing service department and stores it in the FD. Then, the user performs a fitting simulation for synthesizing clothes with himself or synthesizing clothes for the model image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例を示すブロック図である。FIG. 1 is a block diagram showing one embodiment of the present invention.

【図2】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 2 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図3】(A)および(B)は背景の前に立たせたマネ
キンをビデオカメラでとらえた画像である。
3 (A) and (B) are images of a manikin standing in front of a background captured by a video camera.

【図4】衣服を示すかつCRT上に表示した画像であ
る。
FIG. 4 is an image showing clothes and displayed on a CRT.

【図5】輪郭線上に特徴点を付した衣服を示すかつCR
T上に表示した画像である。
FIG. 5 shows a garment with feature points on the contour line and CR
It is an image displayed on T.

【図6】衣服画像のアルファ値を示す図解図である。FIG. 6 is an illustrative view showing an alpha value of a clothes image.

【図7】衣服を示すかつCRT上に表示したである。FIG. 7 shows a garment and is displayed on a CRT.

【図8】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 8 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図9】(A)は背景をビデオカメラでとらえた画像で
あり、(B)は背景の前に立たせた人物をビデオカメラ
でとらえた画像である。
9A is an image in which a background is captured by a video camera, and FIG. 9B is an image in which a person standing in front of the background is captured by a video camera.

【図10】人物を示すかつCRT上に表示した画像であ
る。
FIG. 10 is an image showing a person and displayed on a CRT.

【図11】輪郭線上に特徴点を付した人物を示すかつC
RT上に表示した画像である。
FIG. 11 shows a person with a feature point on the contour line and C
It is an image displayed on the RT.

【図12】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 12 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図13】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 13 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図14】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 14 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図15】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 15 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【図16】衣服画像の輪郭線とその線上に付した特徴点
と輪郭線を区切る領域とを示す図解図である。
FIG. 16 is an illustrative view showing a contour line of a clothes image, a feature point attached to the contour line, and a region dividing the contour line.

【図17】衣服画像の輪郭線とその線上に付した特徴点
と輪郭線を区切る領域とを示す図解図である。
FIG. 17 is an illustrative view showing a contour line of a clothing image, a feature point attached to the contour line, and a region dividing the contour line.

【図18】人物の輪郭線とその線上に付された特徴点と
輪郭線を区切る領域とを示す図解図である。
FIG. 18 is an illustrative view showing a contour line of a person, a feature point attached to the contour line, and a region dividing the contour line.

【図19】人物の輪郭線上に衣服の輪郭線を重ね合わせ
た図解図である。
FIG. 19 is an illustrative view in which a contour line of clothes is superimposed on a contour line of a person.

【図20】袖の付近の輪郭線を示す図解図である。FIG. 20 is an illustrative view showing a contour line near a sleeve.

【図21】袖の付近の輪郭線を示す図解図である。FIG. 21 is an illustrative view showing a contour line near a sleeve.

【図22】この発明の他の実施例の動作の一部を示すフ
ロー図である。
FIG. 22 is a flowchart showing one portion of behavior of another embodiment of the present invention.

【図23】この発明の他の実施例の動作の一部を示すフ
ロー図である。
FIG. 23 is a flowchart showing one portion of behavior of another embodiment of the present invention.

【図24】他の実施例の動作の一部を示す図解図であ
る。
FIG. 24 is an illustrative view showing one portion of behavior of another embodiment.

【図25】他の実施例の動作の一部を示す図解図であ
る。
FIG. 25 is an illustrative view showing one portion of behavior of another embodiment.

【図26】衣服を示すかつCRT上に表示した画像であ
る。
FIG. 26 is an image showing clothes and displayed on a CRT.

【図27】従来技術で合成した衣服を示すかつCRT上
に表示した画像である。
FIG. 27 is an image showing clothes synthesized by the conventional technique and displayed on a CRT.

【符号の説明】[Explanation of symbols]

10 …画像合成装置 14 …マイコン 20 …ワークメモリ 22 …レイヤ 10 ... Image synthesizer 14 ... Microcomputer 20 ... Work memory 22 ... Layer

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】(a) 第1画像および第2画像をメモリし、 (b) 前記第1画像の第1輪郭および前記第2画像の第2
輪郭を重ね合わせた場合に前記第1輪郭および前記第2
輪郭のいずれか一方が他方からはみ出すはみ出し部分を
検出し、 (c) 検出結果に基づいてはみ出しが生じないように前記
第1画像および前記第2画像の少なくとも一方を変形
し、そして(d) 第1画像と第2画像を合成する、画像合
成方法。
1. (a) A first image and a second image are stored in the memory, and (b) A first contour of the first image and a second outline of the second image.
When the contours are overlapped, the first contour and the second contour
One of the contours detects a protruding portion protruding from the other, and (c) at least one of the first image and the second image is deformed so that the protrusion does not occur based on the detection result, and (d) An image synthesizing method for synthesizing a first image and a second image.
【請求項2】前記ステップ(b) は、(b-1) 前記第1輪郭
および前記第2輪郭を重ね合わせ、(b-2) 重ね合わせた
輪郭画像の所定部分において前記はみ出し部分を検出す
る、請求項1記載の画像合成方法。
2. The step (b) comprises: (b-1) superimposing the first contour and the second contour, and (b-2) detecting the protruding portion in a predetermined portion of the superposed contour image. The image synthesizing method according to claim 1.
【請求項3】前記第1画像は第1衣服画像であり、前記
第2画像は前記第1衣服画像の下に着るべき第2衣服画
像であり、前記ステップ(b-2) は前記第2輪郭のうち前
記第1輪郭からはみ出している部分を検出する、請求項
2記載の画像合成方法。
3. The first image is a first clothing image, the second image is a second clothing image to be worn under the first clothing image, and step (b-2) is the second clothing image. The image synthesizing method according to claim 2, wherein a portion of the contour that is out of the first contour is detected.
【請求項4】前記第1画像は人物画像であり、前記第2
画像は衣服画像であり、前記ステップ(b-2) は前記第1
輪郭のうち前記第2輪郭からはみ出している部分を検出
する、請求項1記載の画像合成方法。
4. The first image is a person image, and the second image is a human image.
The image is a clothing image, and the step (b-2) is the first image.
The image synthesizing method according to claim 1, wherein a portion of the contour that is out of the second contour is detected.
【請求項5】前記ステップ(c) は、(c-1) 前記検出結果
に基づいて前記第2輪郭を変形し、(c-2) 変形した第2
輪郭に従って前記第2画像を変形する、請求項1ないし
4のいずれかに記載の画像合成方法。
5. The step (c) comprises: (c-1) deforming the second contour based on the detection result, and (c-2) deforming the second contour.
The image synthesizing method according to claim 1, wherein the second image is transformed according to a contour.
【請求項6】(a) 第1衣服画像および複数の第2衣服画
像をメモリし、 (b) 前記第1衣服画像の第1輪郭および1の第2衣服画
像の第2輪郭を重ね合わせた場合に前記第2輪郭の所定
部分が前記第1輪郭からはみ出すかどうか判別し、 (c) 判別結果に基づいてはみ出しのない第2衣服画像を
選択し、そして(d) 前記第1衣服画像と選択した前記第
2衣服画像とを合成する、画像合成方法。
6. (a) a first clothing image and a plurality of second clothing images are stored in the memory, and (b) a first contour of the first clothing image and a second contour of one second clothing image are superimposed. In this case, it is determined whether or not a predetermined portion of the second contour extends beyond the first contour, (c) a second clothing image having no protrusion is selected based on the determination result, and (d) the first clothing image and An image synthesizing method for synthesizing the selected second clothing image.
【請求項7】(a) メモリを準備し、 (b) 上半身に着衣される第1衣服画像および下半身に着
衣される第2衣服画像を前記メモリの所定位置に書き込
み、 (c) 前記第1衣服画像および前記第2衣服画像が一部に
おいて互いに重なり合うように前記第1衣服画像および
前記第2衣服画像の少なくとも一方を変形し、そして
(d) 前記第1衣服画像および前記第2衣服画像を合成す
る、画像合成方法。
7. (a) Preparing a memory, (b) writing a first clothing image to be worn on the upper half of the body and a second clothing image to be worn on the lower half of the body to a predetermined position in the memory, and (c) the first clothing. Transforming at least one of the first clothes image and the second clothes image such that the clothes image and the second clothes image partially overlap each other; and
(d) An image synthesizing method for synthesizing the first clothes image and the second clothes image.
【請求項8】(a) 前記ステップ(c) は、(c-1) 前記第1
衣服画像の下方における第1輪郭および前記第2衣服画
像の上方における第2輪郭を指定し、そして(c-2) 前記
第1輪郭および前記第2輪郭の最も離れた2点が一致す
るように前記第1衣服画像および前記第2衣服画像の少
なくとも一方を変形する、請求項7記載の画像合成方
法。
8. (a) The step (c) includes (c-1) the first
Designating a first contour below the clothes image and a second contour above the second clothes image, and (c-2) so that the two furthest points of the first contour and the second contour coincide. The image combining method according to claim 7, wherein at least one of the first clothes image and the second clothes image is transformed.
JP348996A 1995-08-03 1996-01-12 Picture synthesis method Pending JPH09102033A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP348996A JPH09102033A (en) 1995-08-03 1996-01-12 Picture synthesis method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP19859595 1995-08-03
JP7-198595 1995-08-03
JP348996A JPH09102033A (en) 1995-08-03 1996-01-12 Picture synthesis method

Publications (1)

Publication Number Publication Date
JPH09102033A true JPH09102033A (en) 1997-04-15

Family

ID=26337077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP348996A Pending JPH09102033A (en) 1995-08-03 1996-01-12 Picture synthesis method

Country Status (1)

Country Link
JP (1) JPH09102033A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283085A (en) * 2000-03-31 2001-10-12 Advance Co Ltd Beauty system
JP2002140578A (en) * 2000-10-31 2002-05-17 Fujitsu Ltd Sale supporting method, sale supporting device and recording medium
US6687406B2 (en) 1998-09-21 2004-02-03 Fuji Photo Film Co., Ltd. Image coding without coding clipped regions
WO2004079652A1 (en) * 2003-03-07 2004-09-16 Digital Fashion Ltd. Virtual try-on display apparatus, virtual try-on display method, virtual try-on display program, and computer readable recording medium in which that program has been recorded
JP2005236888A (en) * 2004-02-23 2005-09-02 Hitachi Software Eng Co Ltd Photograph seal vending machine, and picture editing method
JP2013037445A (en) * 2011-08-04 2013-02-21 Toshiba Corp Image processing device, method, and program
JP2013101468A (en) * 2011-11-08 2013-05-23 Sony Corp Image processing apparatus, image processing method, and program
JP2014179135A (en) * 2014-07-01 2014-09-25 Toshiba Corp Image processing system, method and program
JP2015181314A (en) * 2015-07-16 2015-10-15 ソニー株式会社 Image processing system, image processing method and program
US9513788B2 (en) 2011-06-01 2016-12-06 Sony Corporation Image processing apparatus, image processing method, and program
WO2020009066A1 (en) * 2018-07-02 2020-01-09 株式会社ブルームスキーム Virtual try-on fitting apparatus, virtual try-on fitting method, and virtual try-on fitting program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6687406B2 (en) 1998-09-21 2004-02-03 Fuji Photo Film Co., Ltd. Image coding without coding clipped regions
US6690810B2 (en) 1998-09-21 2004-02-10 Fuji Photo Film Co., Ltd. Image coding without coding transparency regions
JP2001283085A (en) * 2000-03-31 2001-10-12 Advance Co Ltd Beauty system
JP2002140578A (en) * 2000-10-31 2002-05-17 Fujitsu Ltd Sale supporting method, sale supporting device and recording medium
WO2004079652A1 (en) * 2003-03-07 2004-09-16 Digital Fashion Ltd. Virtual try-on display apparatus, virtual try-on display method, virtual try-on display program, and computer readable recording medium in which that program has been recorded
JP2005236888A (en) * 2004-02-23 2005-09-02 Hitachi Software Eng Co Ltd Photograph seal vending machine, and picture editing method
US9513788B2 (en) 2011-06-01 2016-12-06 Sony Corporation Image processing apparatus, image processing method, and program
US10685394B2 (en) 2011-06-01 2020-06-16 Sony Corporation Image processing apparatus, image processing method, and program
US10043212B2 (en) 2011-06-01 2018-08-07 Sony Corporation Image processing apparatus, image processing method, and program
JP2013037445A (en) * 2011-08-04 2013-02-21 Toshiba Corp Image processing device, method, and program
US10163419B2 (en) 2011-11-08 2018-12-25 Sony Corporation Image processing to combine virtual object with captured image
JP2013101468A (en) * 2011-11-08 2013-05-23 Sony Corp Image processing apparatus, image processing method, and program
US10720122B2 (en) 2011-11-08 2020-07-21 Sony Corporation Image processing apparatus and image processing method
US11024251B2 (en) 2011-11-08 2021-06-01 Sony Corporation Image processing apparatus and image processing method
JP2014179135A (en) * 2014-07-01 2014-09-25 Toshiba Corp Image processing system, method and program
JP2015181314A (en) * 2015-07-16 2015-10-15 ソニー株式会社 Image processing system, image processing method and program
WO2020009066A1 (en) * 2018-07-02 2020-01-09 株式会社ブルームスキーム Virtual try-on fitting apparatus, virtual try-on fitting method, and virtual try-on fitting program
JP6631988B1 (en) * 2018-07-02 2020-01-15 株式会社ブルームスキーム Virtual fitting device, virtual fitting method, and virtual fitting program

Similar Documents

Publication Publication Date Title
US5937081A (en) Image composition system and method of using same
JP3742394B2 (en) Virtual try-on display device, virtual try-on display method, virtual try-on display program, and computer-readable recording medium storing the program
JP6490430B2 (en) Image processing apparatus, image processing system, image processing method, and program
CN106373178B (en) Apparatus and method for generating artificial image
US6307568B1 (en) Virtual dressing over the internet
US10311508B2 (en) Garment modeling simulation system and process
JP3314704B2 (en) Method of synthesizing image showing fitting state and virtual fitting system using the method
JPH10340282A (en) Device and method for virtual try-on of clothes and clothes manufacturing device
JPH09102033A (en) Picture synthesis method
KR102406104B1 (en) Method and device for virtual wearing of clothing based on augmented reality with multiple detection
JP3388269B2 (en) Method for automatically creating pattern pattern for clothes, system for automatically creating pattern pattern for clothes, and server computer for automatic creation of pattern pattern for clothes
Groß et al. Automatic pre-positioning of virtual clothing
JPH11238086A (en) Method and device for generating shape data on body and manufacture body
Li et al. Povnet: Image-based virtual try-on through accurate warping and residual
JPH11250282A (en) Cg animation preparing method and device using the method
JPH11205585A (en) Production of private catalog and production system
JPH09106419A (en) Clothes fitting simulation method
JP2013084171A (en) Try-on image creation system and clothes image data
WO2024009721A1 (en) Image processing device, and image processing method
JPS59106069A (en) Dress design display method
JPH08101924A (en) Picture composition method
JP2023111013A (en) Program, image processing device, and garment model generation method
JP2002194613A (en) Method and system for displaying coordinate image
Le Thanh et al. Virtual garment pre-positioning
JP2022117813A (en) Virtual try-on system and program used for the same

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030916