WO2005076209A1 - 画像作成装置と画像作成方法、並びに画像作成プログラム - Google Patents

画像作成装置と画像作成方法、並びに画像作成プログラム Download PDF

Info

Publication number
WO2005076209A1
WO2005076209A1 PCT/JP2005/001651 JP2005001651W WO2005076209A1 WO 2005076209 A1 WO2005076209 A1 WO 2005076209A1 JP 2005001651 W JP2005001651 W JP 2005001651W WO 2005076209 A1 WO2005076209 A1 WO 2005076209A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
value
target object
yarn
background
Prior art date
Application number
PCT/JP2005/001651
Other languages
English (en)
French (fr)
Inventor
Tetsuji Maeiwa
Original Assignee
Shima Seiki Manufacturing, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shima Seiki Manufacturing, Ltd. filed Critical Shima Seiki Manufacturing, Ltd.
Priority to EP05709717A priority Critical patent/EP1720127B1/en
Priority to CN200580004003A priority patent/CN100587716C/zh
Priority to AT05709717T priority patent/ATE484041T1/de
Priority to KR1020067014988A priority patent/KR101099623B1/ko
Priority to US10/587,930 priority patent/US7650018B2/en
Priority to DE602005023961T priority patent/DE602005023961D1/de
Publication of WO2005076209A1 publication Critical patent/WO2005076209A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth

Definitions

  • Image creation apparatus image creation method, and image creation program
  • the present invention relates to creation of an image such as a thread image.
  • the created yarn image can be used to create simulation images of textile products such as knitted products, and in the case of textile products other than yarn, such as clothing and other details, images that express details such as fluff and transparency. In the case of a glass product, an image expressing transparency can be obtained.
  • the inventor paid attention to capturing a yarn image using a white background, resulting in a whitish yarn image, and capturing a yarn image using a black background, resulting in a blackish yarn image.
  • the cause was that the background image was mixed with the yarn image in translucent parts such as the fluff of the yarn, resulting in a whitish image on a white background and a blackish image on a black pack.
  • An object of the present invention is to make it possible to easily create a real, high-quality image for a fluff or a transparent target object.
  • An additional object of the present invention is to make it possible to create a more realistic image by eliminating the influence of unevenness of the background image and variation between inputs.
  • Another additional object of the present invention is to obtain an image obtained by realistically combining a new background image and an image of a target object.
  • An image creating apparatus includes: means for storing input images A and C of a target object optically read at least twice using different background images (Gl, G2); and a color or monochrome image of the target object.
  • Gl, G2 different background images
  • It has means for solving the simultaneous equations consisting of X and D, and means for storing the obtained (X, D) as an image of the target object.
  • the image of the target object is optically read at least twice using different background images (Gl, G2) to obtain input images A and C, and the color or monochrome image of the target object is converted to an image.
  • Gl, G2 different background images
  • the target object is a thread
  • the obtained (X, D) is stored as a thread image.
  • the target object is a textile product other than yarn, particularly clothing, and is obtained (X,
  • the target object is preferably a transparent product such as a glass product, or a transparent or translucent product such as a film or thin paper.
  • Means, steps, and instructions for changing the value of D are further provided so that the value of D becomes 0 to 1 between the value and the second predetermined value.
  • the simultaneous equations of equations (1) and (2) may be solved exactly or approximately. If the background image is, for example, a white background image and a black background image, input of the image is easy.
  • a scanner or a digital camera for obtaining an input image of the target object may be a part of the image creation device, or may be separate from the image creation device.
  • the new background image F is input, and the composite image K is
  • the image creating apparatus, the creating method, and the creating program of the present invention can easily create high-quality and accurate images as shown in FIGS.
  • the image of the target object itself and the background image do not mix with each other, even in highly transparent parts such as fluff of yarn, mesh holes, glassware, etc., and the image becomes whitish due to the background There is no blackening. For this reason The effect of is obtained.
  • the color tone and texture of the target object can be represented by an image having a realistic and three-dimensional effect.
  • the details such as fluff can be delicately expressed without the object's fluff and the like becoming whitish or dark.
  • the opacity if the part below the first predetermined value is set to 0 and the part above the second predetermined value is set to 1 and the opacity dynamic range between these predetermined values is expanded, the fluctuation of the background image and the input It is possible to eliminate the effects of variations from each other, variations in the imaging means such as scanners, scattered light from the target object itself, and stray light from the gap between the cover and the platen.
  • FIG. 1 is a block diagram of a simulation device provided with a yarn image creating unit according to the embodiment.
  • FIG. 2 is a flowchart showing a process of inputting a yarn image in the embodiment.
  • FIG. 3 is a flowchart showing a thread image creation algorithm in the embodiment.
  • FIG. 4 is a diagram showing an opacity expansion process in the embodiment.
  • FIG. 5 is a diagram illustrating a yarn image created in the example and a simulation image of a knitted fabric using the yarn image, and a yarn image created in the comparative example and a simulation image of a knitted fabric using the yarn image.
  • FIG. 6 shows another thread image created in the example and a simulation image of a knitted fabric using it.
  • FIG. 7 is a diagram showing another yarn image created in the comparative example and a simulation image of a knitted fabric using the yarn image.
  • FIG. 8 is a diagram showing the clothing image created in the second embodiment combined with two white and black backgrounds.
  • FIG. 9 is a diagram showing a clothing image created in the conventional example combined with two backgrounds, white and black.
  • FIG. 10 is a diagram showing an image on a white background used to create the image of FIG.
  • FIG. 11 is a diagram showing an image on a black background used to create the image of FIG.
  • FIG. 12 is a diagram showing an image of clothing for the whole body created in the second embodiment, combined with two white and black backgrounds.
  • FIG. 13 is a diagram showing an image on a white background used to create the image of FIG.
  • FIG. 14 is a diagram showing an image on a black background used to create the image of FIG.
  • FIG. 15 is a diagram showing the images of the two glasses created in the third embodiment combined with a background image.
  • FIG. 16 is a diagram showing the images of the two glasses created in the third embodiment combined with two black and white backgrounds.
  • FIG. 17 is a diagram showing an image on a white background used to create the images of FIGS. 15 and 16.
  • FIG. 18 is a diagram showing a black background image used to create the images of FIGS. 15 and 16.
  • FIGS. 1 to 6 show the first embodiment, taking the creation of a yarn image as an example, and FIG. 7 shows the yarn image obtained in the comparative example for reference.
  • FIG. 1 shows a simulation device 2 using the image forming apparatus of the embodiment
  • 4 is a color scanner for input, which may be a digital camera or a monochrome scanner.
  • 6 is a keyboard and 7 is a stylus, which can be replaced with an appropriate input means such as a mouse or a trackball.
  • Reference numeral 8 denotes a color monitor, which displays the obtained yarn image, design data of the created knit, or an image obtained by simulating the design data as a knitted fabric or garment.
  • Color printer 10 is also used for yarn image and knit design data and simulation. Output images, etc.
  • the simulation device 2 is connected to the LAN via the LAN interface 12 to input / output the design data or the simulation image of the thread image unit, and similarly, the thread image and the like are transmitted via the disk drive 14. Input and output of knit design data and simulation images. Instead of obtaining the input image of the yarn from the color scanner 4, the image may be read by a remote scanner and input from the LAN interface 12 or the disk drive 14.
  • Reference numeral 15 denotes an image creation program for creating a yarn image and the like, which is read into the simulation device 2 from a disk drive 14 or a LAN interface 12 or the like.
  • the image creation program 15 includes a storage instruction 16 for the input image of the yarn with two different background images such as white and black, a storage instruction 17 for the color data X and the opacity D of the yarn, and an opacity D. And a storage instruction 19 for storing images (X, D) of the created thread and the like.
  • the details of the image creation program 15 will be described later with reference to the flowchart of FIG.
  • the background image is sometimes simply called the background, and the color image of the yarn is sometimes called color data.
  • Reference numeral 21 denotes a white background image storage unit which stores an input image when a color scanner 4 closes a cover, for example, and inputs a yarn image with a white background.
  • the black pack image storage unit 22 stores the input image when the cover is opened by, for example, the color scanner 4 and a yarn image is input with a black background.
  • the ability to store two images with a white background and a black background may store two images with different backgrounds.
  • Color data calculation unit 2 4 calculates the color value X of the yarn image
  • opacity calculating unit 2 6 calculates the opacity D of the yarn image.
  • the expansion unit 27 converts the value of D equal to or less than the first predetermined value to 0 and converts the value of D equal to or more than the second predetermined value to 1 assuming that the opacity D is, for example, 0 or more and 1 or less. Then, the value of D between the first predetermined value and the second predetermined value is converted to 0 to 1 to extend the dynamic range of D.
  • the extension 27 may not be provided.
  • the image storage unit 28 stores the color data X and the opacity D (expanded) and memorize them freely.
  • the color data X is handled in the RGB system.
  • the color data X may be handled in the 11-system ⁇ 1 ab system, etc., and the tree transparency D is obtained for each of the RGB components.
  • Opacity is D.
  • the value of V represents lightness.
  • the opacity D may be calculated using the value of V.
  • the knit design department 30 designs the knit product using the color scanner 4, keyboard 6, stylus 7, etc., and converts the designed data into knitting data for flat knitting machines.
  • the simulation section 32 converts the design data of the knitting and garment obtained in the knit design section 30 into a simulation image so that the image of the yarn appears clearly, and the texture and three-dimensional feeling of the garment and knitted fabric. To express.
  • the knit design part 30 and the simulation part 32 themselves are known from Patent Document 1 and the like.
  • Figure 2 shows the input of a yarn image using a color scanner.
  • Figure 3 shows the algorithm for creating images such as threads.
  • the input image A in black background is read from the black pack image storage unit, and the input image C in white background is read from the white background image storage unit.
  • the value of the background black image is B
  • the value of the white image is W.
  • A, B, C, and W are images of the RGB system, and assume 256 gradations from 0 to 255.
  • the opacity is D
  • D is a monochrome image
  • the gradient is 256.
  • A-C (B -W)-(B -W) D (4)
  • X ⁇ W (A-B) -B (C-W) ⁇ / ⁇ (A-B)-(C-W) ⁇ (6)
  • the solution of the system of linear equations for finding D and X is optional. It is not necessary to find exact numerical solutions, but only approximate solutions.
  • the input image is processed, for example, one pixel at a time, and the values of X and D are obtained. One pixel is taken out, the value of X and the value of D are obtained as described above, and the processing is repeated until the processing of all pixels is completed.
  • the force color data X is RGB data, and accordingly, the opacity D is also calculated using the value DR obtained using the R image, the value DG obtained using the G image, and the B image.
  • the components of the color data X were XR, XG, and XB, and the opacity D was the average of DR, DG, and DB.
  • the arithmetic mean is used, the geometric mean may be used, and a median or the like may be used instead of the mean.
  • both D and X are set to 0.
  • the range of the value of D is set to 0 or more and 1 or less. For example, when it is 40 255 or less, D and X are set to 0. If D is greater than 210, 255, set D to 1 and do not change the value of X. If the value of D is 40/255 to 210/255, it is expanded so that the range of D is 0 to 1. In this way, all pixels of the input image are processed, and the thread image (X, D) is stored.
  • the denominator of the color data X is obtained first by using equation (6), and when this value is almost equal to 0, the opacity is calculated.
  • the degree D and the color data X are assumed to be 0, and D and X may be obtained for an area where D is not 0.
  • the opacity D may be obtained first by using equation (5), and then the color data X may be obtained by using equation (6). It is also optional to determine D and X one pixel at a time, or to determine opacity D for the entire image first and then X.
  • FIG. 4 shows the expansion of the opacity D.
  • the value of D is equal to or less than the first predetermined value, for example, 400255, the value of D is set to 0.
  • the value of D is the second predetermined value, and if it is equal to or greater than 210/255, the value of D is set to 1. Extend the dynamic range of D so that the remaining D value of 40 / 255-210-255 becomes 0-1.
  • the value after expansion is indicated by D '.
  • the value of D is less than 40Z255, the transparency is high. If there is a thread in this pixel, the background image is uneven, the variation of each input is different, and the light scattered from the thread on the scanner And the like. Therefore, when the value of D is less than 40/255, it is set to 0. If the value of D is greater than 210/255, the input may vary due to variations in the input, or the cover may be closed with a slight gap between the platen and the document to prevent compression of the thread. Turbulence is considered. For this reason, similarly, the value of D greater than 210/255 is set to 1.
  • a thread image was created using only the white background image for dagger comparison.
  • the background image was set to one white color, and a mask of opacity D was provided assuming that the portion where the value of the input image changed from the background value was a thread image, and Cut out color image X.
  • the opacity D approaches 0 when the value of the color data X approaches the background image, and approaches 1 when the difference between the color data X and the background image increases.
  • this algorithm did not produce a realistic yarn image, the opacity image was corrected manually using a stencil so that a realistic yarn image could be obtained.
  • Figure 5 shows the created yarn image.
  • 51 on the right is a thread image created in the embodiment
  • 52 is a thread image displayed on a black background
  • 53 is a thread image displayed on a white image.
  • 54 is a simulation image of a knitted fabric using the yarn image created in the example.
  • the yarn image 55 of the comparative example is shown on the left side of FIG. 5, which is described above using a white background. It was created.
  • Reference numeral 56 denotes a yarn image of the comparative example combined with a black background for display
  • reference numeral 57 denotes a yarn image of the comparative example displayed on a white background.
  • Numeral 58 denotes a simulation image of a knitted fabric using the yarn image of the comparative example.
  • the thread image 51 and the thread image 55 were input at the same position using the same thread.
  • the embodiment shows more fluff
  • the comparative example shows a whitish image. If you look at the part with black background, in the comparative example you can see white streaks on both sides of the yarn, because the color data of the fluff of the yarn and the white color of the background color were mixed and it was made a yarn image It is.
  • the yarn image 51 of the embodiment is real and realistic when viewed on a black background or a white background, and has a lot of fluff. Comparing the simulation images 54 and 58, in the image 54 using the yarn image of the example, the fluff is abundant and the three-dimensional effect of the knitted fabric is expressed. On the other hand, in the image 58 of the comparative example, the knitted fabric lacks vividness and feels thin and flat.
  • FIG. 6 shows a yarn image created in the example using another yarn and a simulated image 633 using the yarn image, 61 showing a yarn image on a black background, and 62 showing a white image on a white background.
  • FIG. 7 shows a yarn image created in a comparative example using a white background, and a simulation image 73 using the yarn image.
  • 71 is a black background display of the thread image (created with a white background) created in the comparative example
  • 72 is a white background display.
  • the yarn image of the comparative example is entirely white and white, and the fluff is expressed thicker than it actually is.
  • the delicate fluff is expressed with a three-dimensional effect, whereas in the simulation image 73 of the comparative example, the fluff is thicker than it actually is.
  • the expression lacks a three-dimensional effect.
  • a thread image can be easily created by reading the thread image twice at the same position using two backgrounds such as a white background and a black background.
  • the color data and opacity of the yarn are real, and the yarn body and fluff can be expressed with high quality.
  • Example 2 that can be expressed as
  • the creation of a thread image is taken as an example.
  • the present invention can also be used to create an image of a transparent object such as a textile or a glass product such as clothing.
  • a thread image the problem was to cut out the fluff from the background.
  • the fluff was translucent, so that the background was not mixed into the cut fluff image.
  • Textile products include, for example, curtains, blankets, table covers, and cushions, in addition to clothing.
  • this invention can be used to create transparent images such as glass products, films, and thin paper.
  • the opacity D can be obtained, and the image X of the target object itself separated from the background can be obtained. If the background image to be synthesized is F, the object image is X, and its opacity is D, the synthesized image K is
  • Figures 8 to 11 show examples of images of mesh-type knitted garments worn by mannequins.
  • Figures 10 and 11 are images taken with a digital camera with a white or black background.
  • Figure 9 shows how to manually create a stencil from Figure 11 This is an image obtained by cutting out a kind of image and combining it with a white or black background.
  • the fluff is unnaturally black on a white background. This is because it is difficult to cut out only the pixels corresponding to the fluff, and the opacity is unknown, so a black background image is mixed in the cut-out pixel of the fluff.
  • an image having natural fluff is obtained regardless of whether the background is white or black.
  • the image creation device and program may be the same as those shown in FIG. 1, and the image creation algorithm may be the one shown in FIG. Instead of scanning the image shown in FIG. 2, imaging by a digital camera or the like may be used as described above.
  • imaging by a digital camera or the like may be used as described above.
  • the description of the embodiment shown in FIGS. 1 to 7 applies to the second embodiment and the third embodiment as they are.
  • Figures 12 to 14 are images of a mannequin wearing the same clothing.
  • Figures 13 and 14 are images taken by a digital camera on a white or black background.
  • the image created in the embodiment is synthesized with a white or black background.
  • the translucent mesh of sleeves and pants is expressed.
  • FIGs. 15 to 18 show a third embodiment relating to an image of a glass product.
  • Figures 17 and 18 are images of a glass and jug taken with a digital camera on a white or black background. From this example, an image of glass product X and an image of its opacity D were obtained according to the example, and combined with a background image of a desk or an ashtray as shown in Fig. 15 and two background images of black and white combined. It is sixteen. Since an image with opacity D is obtained, a natural image can be obtained even if the background is changed (Fig. 16). Even if the image has an uneven background such as the background with an ashtray in Fig. 15 An image was obtained, and the surface gloss was also expressed with transparency (Figs. 15 and 16).

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Color, Gradation (AREA)
  • Processing Of Color Television Signals (AREA)
  • Yarns And Mechanical Finishing Of Yarns Or Ropes (AREA)

Abstract

白い背景と黒い背景とを用いて対象物体の撮影画像を2回入力し、これらから不透明度Dと対象物体のカラー画像Xとを求めて、対象物体の画像とする。高品位でリアルな画像を簡単に作成できる。

Description

明細書
画像作成装置と画像作成方法、 並びに画像作成プログラム 技術分野
この発明は糸画像などの画像の作成に関する。 作成した糸画像は例えばニット 製品などの繊維製品のシミュレーション画像の作成等に用いることができ、 糸以 外の衣類などの繊維製品の場合には毛羽や透明感などのディティルな部分を表現 した画像を作成でき、 ガラス製品などの場合には、 透明感を表現した画像が得ら れる。 背景技術
ニット製品のシミュレーションなどでは、 編目などを構成する糸の画像が必要 になり、 リアルなシミュレーションには高品位の糸画像が欠かせない。 糸画像の 入力では、 糸をスキャナにセットして糸の画像を取り込み、 地色と色が異なる部 分を糸として、 糸の画像を入力することが行われている。 そしてこのようにして 取り込まれた糸画像は、 ニット製品のシミュレーションなどに用いられる(特許文 献 1 )。
発明者は、 白い背景を用いて糸画像を取り込むと白っぽい糸画像となり、 黒い 背景を用いて糸画像を取り込むと黒っぽい糸画像になることに着目した。 そして この原因が、 糸の毛羽などの半透明の部分では、 糸の画像に背景画像が混じり込 んで、 白いバックでは白っぽい画像となり、 黒いパックでは黒っぽい画像となる ことにあると考えた。
半透明の部分で対象とする物体の画像と背景画像が混ざり合い、 これらを分離 するのが難しいことは、 糸以外の、 衣類などの繊維製品やガラス製品などでも同 様である。 衣類などの繊維製品の場合、 毛羽やメッシュの孔、 極く薄い生地の部 分で、 背景画像が繊維製品の画像に混じり込んで、 これらを分離するのは難しい。 またガラス製品などの透明な物体の場合、 ガラスを透かして見える背景画像を、 ガラス製品自体の画像と分離するのは難しい。 発明の概要
発明が解決しようとする課題
この発明の課題は、 毛羽や透明感のある対象物体に対して、 リアルで高品位な 画像を簡単に作成できるようにすることにある。
この発明での追加の課題は、 背景画像のむらや入力毎のばらつきなどの影響を 除き、 よりリアルな画像を作成できるようにすることにある。
この発明での他の追加の課題は、 新たな背景画像と対象物体の画像をリアルに 合成した画像を得られるようにすることにある。 課題を解決するための手段
この発明の画像作成装置は、 異なる背景画像(Gl, G2)を用いて少なくとも 2回 光学的に読み取った対象物体の入力画像 A, Cを記憶するための手段と、 対象物体 のカラーまたはモノクロ画像を X、 その不透明度を Dとして、
A = G1+ (X-Gl)D
C = G2+ (X-G2) D
からなる連立方程式を X, Dについて解くための手段と、 得られた(X, D)を対象 物体の画像として記憶するための手段、 とを備えたものである。
この発明の画像作成方法では、 異なる背景画像(Gl, G2)を用いて少なくとも 2 回対象物体の画像を光学的に読み取って、 入力画像 A, Cとし、 対象物体のカラー またはモノク口画像を画像を X、 その不透明度を Dとして、
A=G1+(X-G1)D (1)
C = G2+ (X-G2)D (2) からなる連立方程式を X, Dについて解き、 得られた(X, D)を対象物体の画像と して記憶する。
この発明の画像作成プログラムは、 異なる背景画像(Gl, G2)を用いて少なくと も 2回光学的に読み取った、 対象物体の入力画像 A, Cを記憶するための命令と、 対象物体のカラーまたはモノクロ画像を画像を X、 その不透明度を Dとして、 A=G1+ (X-Gl)D (1)
C = G2+(X— G2)D (2) からなる連立方程式を X, Dについて解くための命令と、 得られた(X, D)を対象 物体の画像として記憶するための命令とを備えたものである。
好ましくは、 対象物体が糸で、 得られた(X, D)を糸画像として記憶する。 また好ましくは、 対象物体が糸以外の繊維製品、 特に衣類で、 得られた(X,
D)を繊維製品の画像として記憶する。
なお対象物体にはこれ以外に、 ガラス製品などの透明な製品や、 フィルムや薄 い紙などの透明ないし半透明な製品などが好ましい。
好ましくは、 Dが取る値の範囲を 0以上 1以下とした際に、 Dの値が第 1の所 定値以下で D=0、 第 2の所定値以上で D= l、 かつ第 1の所定値と第 2の所定 値の間で Dの値が 0〜 1となるように、 Dの値を変更するための、 手段ゃステツ プ、 命令をさらに設ける。
式(1),(2)の連立方程式は厳密に解いても近似的に解いても良い。 背景画像は例 えば白の背景画像と黒の背景画像とすると、 画像の入力も容易である。 対象物体 の入力画像を得るためのスキャナやデジタルカメラなどは、 画像作成装置の一部 としても良く、 あるいは画像作成装置とは別体としても良い。
好ましくは、 新たな背景画像 Fを入力して、 合成画像 Kを
K = XD + F ( 1 -D)
により求める。 猪明の効果
この発明の画像作成装置や作成方法、 作成プログラムでは、 図 5, 図 6等に示 すように、 高品位で正確な画像を簡単に作成できる。
作成した画像では、 糸の毛羽やメッシュの孔、 ガラス製品などのように、 透明 度の高い部分でも、 対象物体自体の画像と背景の画像とが混ざり合わず、 背景に よって画像が白っぽくなったり黒っぽくなったりすることがない。 このため以下 の効果が得られる。
(1) 対象物体の色調や風合いをリアルで立体感を備えた画像で表現できる。 特に 物体の毛羽などが白っぽくなつたり、 黒っぽくなったりすることがなく、 毛羽な どのディティルな部分を繊細に表現できる。
(2) 白い背景で作成した画像を黒い背景と合成して表示しても、 輪郭に白筋が生 じたりすることがない。 同様に黒い背景で作成した画像を白い背景と合成して表 示しても、 輪郭に黒筋が生じたりすることがない。
糸画像の場合、 作成した画像を用いて編地などをシミュレーションすると、 毛 羽などがその色調を含めて写実的に表現されるため、 立体感がありかつ正確な色 調で編地などを表現できる。
画像の作成では、 背景画像を変えて例えば 2回画像を入力すれば良く、 簡単に 画像を作成できる。 また従来のように、 画像を作成するための不透明度の画像を、 ステンシルなどでマ二ユアル調整する必要がない。
また不透明度について、 第 1の所定値以下の部分を 0 , 第 2の所定値以上の部 分を 1として、 これらの所定値間の不透明度のダイナミックレンジを拡げると、 背景画像の揺らぎ、 入力毎のばらつきやスキャナなどの撮像手段のばらつき、 対 象物体自体からの散乱光や、 カバーと原稿台などの隙間などからの迷光などの影 響を除くことができる。 図面の簡単な説明
図 1は実施例の糸画像作成部を備えたシミュレーシヨン装置のプロック図である。 図 2は実施例での糸の画像の入力過程を示すフローチャートである。
図 3は実施例での糸画像の作成アルゴリズムを示すフローチヤ一トである。
図 4は実施例での不透明度の伸張処理を示す図である。
図 5は実施例で作成した糸画像とこれを用いた編地のシミュレーション画像、 及 ぴ比較例で作成した糸画像とこれを用いた編地のシミュレーシヨン画像を示す図 である。
図 6は実施例で作成した別の糸画像とこれを用いた編地のシミュレーション画像 を示す図である。
図 7は比較例で作成した別の糸画像とこれを用いた編地のシミュレーション画像 を示す図である。
図 8は第 2の実施例で作成した衣類の画像を、 白と黒の 2つの背景と合成して示 す図である。
図 9は従来例で作成した衣類の画像を、 白と黒の 2つの背景と合成して示す図で ある。
図 1 0は図 8の画像の作成に用いた白背景の画像を示す図である。
図 1 1は図 8の画像の作成に用いた黒背景の画像を示す図である。
図 1 2は第 2の実施例で作成した全身分の衣類の画像を、 白と黒の 2つの背景と 合成して示す図である。
図 1 3は図 1 2の画像の作成に用いた白背景の画像を示す図である。
図 1 4は図 1 2の画像の作成に用いた黒背景の画像を示す図である。
図 1 5は第 3の実施例で作成した 2つのグラスの画像を、 背景画像と合成して示 す図である。
図 1 6は第 3の実施例で作成した 2つのグラスの画像を、 白黒 2つの背景と合成 して示す図である。
図 1 7は図 1 5 , 図 1 6の画像の作成に用いた白背景の画像を示す図である。 図 1 8は図 1 5 , 図 1 6の画像の作成に用いた黒背景の画像を示す図である。 符号の説明
2 シミュレーション装置 4 カラースキャナ
6 キーポード 7 スタイラス
8 カラーモニタ 1 0 カラープリンタ
1 2 L A Nインターフェース 1 4 ディスク ドライプ
1 5 画像作成プログラム 1 6 入力画像記憶命令
1 7 カラーデータ、 不透明度記憶命令
1 8 不透明度の伸張命令 1 9 画像記憶命令 2 0 画像作成部 2 1 白パック画像記憶部
2 2 黒バック画像記憶部 2 4 カラーデータ算出部
2 6 不透明度算出部 2 7 伸張部
2 8 画像記憶部 3 0 ニットデザィン部
3 2 シミュレーション部 5 1 実施例で作成した糸画像
5 2 糸画像の黒い背景での表示 5 3 糸画像の白い背景での表示
5 4 実施例で作成した糸画像を用いた編地のシミュレーション画像
5 5 比較例で白い背景を用い作成した糸画像
5 6 糸画像の黒い背景での表示 5 7 糸画像の白い背景での表示
5 8 比較例で作成した糸画像を用いた編地のシミュレーション画像
6 1 実施例で作成した糸画像の黒い背景表示
6 2 実施例で作成した糸画像の白い背景表示
6 3 実施例で作成した糸画像を用いた編地のシミュレーシヨン画像
7 1 比較例で白い背景を用い作成した糸画像の黒い背景表示
7 2 比較例で白い背景を用い作成した糸画像の白い背景表示
7 3 比較例で作成した糸画像を用いた編地のシミュレーション画像 発明を実施するための最良の形態
以下に本発明を実施するための最適実施例を示す。
実施例
図 1〜図 6に糸画像の作成を例に最初の実施例を示し、 図 7に参考のため、 比 較例で得られた糸画像を示す。 図 1は実施例の画像作成装置を用いたシミュレー シヨン装置 2を示し、 4は入力用のカラースキャナで、 デジタルカメラやモノク 口のスキャナなどでも良い。 6はキーボードで、 7はスタイラスであり、 マウス やトラックボールなどの適宜の入力手段に代えることができる。 8はカラーモニ タで、 得られた糸画像や作成したニットのデザインデータあるいはこのデザイン データを編地やガーメントとしてシミュレーションした画像などを表示する。 力 ラープリンタ 1 0は同様に、 糸画像やニッ トのデザインデータ、 シミュレーショ ン画像などを出力する。
L A Nィンターフェース 1 2を介して、 シミュレーション装置 2は L A Nに接 続され、 糸画像ゃュットのデザインデータあるいはシミュレーション画像などの 入出力を行い、 同様にディスクドライブ 1 4を介して、 糸画像やニットのデザィ ンデータ、 シミュレーション画像などの入出力を行う。 また糸の入力画像をカラ 一スキャナ 4から得る代わりに、 遠隔のスキャナで読み込み、 L A Nインターフ エース 1 2やディスクドライブ 1 4などから入力しても良い。
1 5は画像作成プログラムで、 糸画像などを作成するプログラムであり、 ディ スクドライブ 1 4や L A Nィンターフェース 1 2などからシミユレーション装置 2に読み込む。 画像作成プログラム 1 5は、 白と黒などの 2つの異なる背景画像 での糸の入力画像の記憶命令 1 6と、 糸のカラーデータ Xと不透明度 Dの記憶命 令 1 7、 並びに不透明度 Dの伸張命令 1 8,及ぴ作成した糸などの画像(X , D )の 記憶命令 1 9とを備えている。 画像作成プログラム 1 5の詳細は図 3のフローチ ヤートを参照して後述する。 また背景画像を単に背景ということがあり、 糸の力 ラー画像をカラーデータということがある。
シミュレーション装置 2の一部として糸などの画像作成部 2 0を設けるが、 力 ラースキャナ 4などと画像作成部 2 0とを組み合わせて単独の画像作成装置とし ても良い。 2 1は白バック画像記憶部で、 カラースキャナ 4で例えばカバーを閉 じ、 白の背景で糸の画像を入力した際の入力画像を記憶する。 黒パック画像記憶 部 2 2は、 例えばカラースキャナ 4でカバーを開け、 黒の背景で糸の画像を入力 した際の入力画像を記憶する。 ここでは背景が白と黒の 2つの画像を記憶する力 背景が異なる 2つの画像を記憶すればよい。
カラーデータ算出部 2 4は糸画像のカラー値 Xを算出し、 不透明度算出部 2 6 は糸画像の不透明度 Dを算出する。 伸張部 2 7は、 不透明度 Dが例えば 0以上 1 以下であるものとして、 第 1の所定値以下の Dの値を 0に変換し、 第 2の所定値 以上の Dの値を 1に変換し、 第 1の所定値から第 2の所定値の間の Dの値を 0〜 1に変換し、 Dのダイナミックレンジを伸張する。 なお伸張部 2 7は設けなくて も良い。 画像記憶部 2 8は、 このようにして作成したカラーデータ Xと不透明度 D (伸張済みのもの)とを読み出し自在に記憶する。
実施例ではカラーデータ Xは R G B系で扱うものとするが、 11 じ系ゃ1 a b 系などで扱っても良く、 木透明度 Dは R G Bのそれぞれの成分について求まるの で、 例えばこれらの平均値を不透明度 Dとする。 なお H V C系の場合、 Vの値が 明度を表し、 この場合は Vの値を用いて不透明度 Dを算出すればよい。
ニットデザイン部 3 0はカラースキャナ 4やキーボード 6,スタイラス 7などを 用いて、 ニット製品のデザインを行い、 デザインされたデータを横編機での編成 データに変換する。 シミュレーション部 3 2はニットデザィン部 3 0で求めた編 ±也やガーメントのデザィンデータをシミユレーション画像に変換し、 糸の画像が 明瞭に現れるようにして、 ガーメントや編地の風合いや立体感を表現する。 なお ニットデザィン部 3 0及びシミュレーシヨン部 3 2自体は特許文献 1などにより 公知のものである。
図 2に、 カラースキャナを用いた糸画像の入力を示す。 スキャナの原稿台ガラ スなどの上に糸をセットし、 力パーで糸が圧縮されて毛羽が潰れないように、 力 バーが完全には閉じないようにしておく。 そしてカバーを開いてスキャンすると、 黒バックの画像が得られる。 同様にカバーを閉じてスキャンすると白バックの画 像が得られる。 黒バックと白バックの 2つの入力画像は後に重ね合わせて用いる ので、 2回の画像入力の間に糸が動かないようにすることが好ましい。 さらに必 要な画像は糸の周囲のみなので、 スキャナに対して画像を取り込む範囲を指定す るのが好ましい。
図 3に糸などの画像の作成アルゴリズムを示す。 黒パック画像記憶部から黒バ ックでの入力画像 Aを読み出し、 白バック画像記憶部から白バックでの入力画像 Cを読み出す。 なお背景の黒画像の値を B、 白画像の値を Wとする。 前記のよう こ A, B , C,Wは R G B系での画像で、 0〜 2 5 5の 2 5 6階調をとるものとする。 さらに不透明度を Dとし、 Dはモノクロ画像で、 階調度は 2 5 6とする。
黒バック画像 Aと、 黒の背景の値 B、 並びに糸のカラー画像 X及び不透明度 D の間には、 A == B' + (X— B ) D の関係がある。 同様に白バック画像 Cと白の 背景の値 Wやカラー画像 X,不透明度 Dの間には C ==W+ (X— W) D の関係が W 一 一 ある。 これらの 2つの式は X並びに Dについて解くことができる。 例えば、
D = (A— B)ノ(X— B) = (C— W)ノ(X— W) (3) と Dを Xで表現できる。 あるいは Aと Cの差を求めることにより、
A-C = (B -W)- (B -W)D (4) と表現でき、 これから Dについて解くと、
D= {(A + W)-(B + C)} Z(W— B) (5) とすることができる。 また Xは、
X= {W(A-B)-B (C-W)} / { (A-B)-(C-W)} (6) より求めることができる。 なお Dや Xを求めるための連立 1次方程式の解法は任 意で、 必ずしも厳密な数値解を求める必要はなく、 近似解を求めるだけでも良い。 次に入力画像を例えば 1ピクセルずつ順に処理し、 Xと Dの値を求める。 1ピ クセル取り出し、 上記のようにして Xの値並びに Dの値を求めて、 全ピクセルの 処理が終了するまで繰り返す。 上では力ラーデータ Xが R G B系のデータである ことや、 これに伴って不透明度 Dにも、 R画像を用いて求めた値 DRや G画像を用 いて求めた値 DG並びに B画像を用いて求めた値 DBがあることを無視したが、 力 ラーデータ Xの成分は XR, XG, XBの 3つで、 不透明度 Dは DR, DG, DBの平均で ある。 平均は相加平均を用いるが、 幾何平均でも良く、 平均の代わりにメディア ンなどを用いても良い。
Dの値がほぼ 0の場合、 即ち A+Wの値と B + Cの値がほぼ等しい場合、 この ピクセルには糸は存在せず、 背景画像が現れていると考えても良い。 そこで Dの 値がほぼ 0の場合、 Dと Xとを共に 0にセットする。 Dの値がほぼ 0ではない場 合、 Dの値の範囲を 0以上 1以下として、 例えば 4 0 2 5 5以下の場合、 Dと Xとを 0にセットする。 Dが 2 1 0ノ2 5 5以上の場合、 Dを 1にセットし、 X の値は変更しない。 Dの値が 4 0/2 5 5 〜 2 1 0ノ2 5 5の場合、 Dの範囲 が 0〜 1となるように伸張する。 このようにして入力画像の全ピクセルを処理し、 糸画像(X, D)を記憶する。
入力画像 A, Cからカラーデータ Xや不透明度 Dを求める際の処理では、 例えば (6)式でカラーデータ Xの分母を先に求め、 この値がほぼ 0に等しいとき、 不透明 度 Dやカラーデータ Xは 0であるとし、 Dが 0でない領域について Dと Xとを求 めて 良い。 あるいは先に(5)式で不透明度 Dを求め、 この後カラーデータ Xを (6)式で求めても良い。 また 1ピクセルずつ Dと Xとを求めるか、 先に画像全体に 対して不透明度 Dを求め、 次いで Xを求めるかなどは任意である。
図 4に不透明度 Dの伸張を示すと、 Dの値が第 1の所定値である例えば 4 0 2 5 5以下の場合、 Dの値は 0にセットされる。 Dの値が第 2の所定値である例 え fま、 2 1 0 / 2 5 5以上の場合、 Dの値を 1にセットする。 残る Dの値 4 0 / 2 5 5 〜 2 1 0ノ2 5 5が 0〜1になるように Dのダイナミックレンジを伸張す る。 図 4では伸張後の値を D ' で示す。
Dの値が 4 0 Z 2 5 5以下の場合透明度が高く、 このピクセルに糸が存在する とレ、うよりも、 背景画像のむらや毎回の入力毎のばらつき、 スキャナ上の糸から 散乱した光の影響などが考えられる。 そこで Dの値が 4 0 / 2 5 5以下で 0にセ ットする。 Dの値が 2 1 0 / 2 5 5以上の場合、 入力のばらつきや、 糸を圧縮し ないように原稿台との間に僅かな隙間を持たせてカバーを閉じていることなどに よる入力の乱れなどが考えられる。 このため同様に、 2 1 0 / 2 5 5以上の Dの 値を 1にセットする。
I;匕較のために、 白の背景画像のみを用いて糸画像を作成した。 比較例での糸画 像の作成では、 背景画像を白 1色とし、 入力画像の値が背景の値から変化した部 分が糸の画像であるものとして不透明度 Dのマスクを設け、 糸のカラー画像 Xを 切り出す。 また不透明度 Dは背景画像にカラ一データ Xの値が近づくと 0に近づ き、 カラーデータ Xと背景画像との差が増すと 1に近づくようにした。 ただしこ のアルゴリズムではリアルな糸画像が得られなかったので、 ステンシルを用いマ ニュアルで不透明度の画像を修正して、 なるべくリアルな糸画像が得られるよう にした。
図 5に作成した糸画像を示す。 右側の 5 1は実施例で作成した糸画像で、 5 2 はこの糸画像を黒背景で表示したもの、 5 3は白画像で表示したものである。 5 4は、 実施例で作成した糸画像を用いた編地のシミュレーション画像である。 図 5の左側に比較例の糸画像 5 5を示し、 これは白い背景を用いて前記のようにし て作成したものである。 5 6は比較例の糸画像を黒の背景と合成して表示したも ので、 5 7は比較例の糸画像を白の背景で表示したものである。 5 8は比較例の 糸画像を用いた編地のシミュレーション画像である。 なお糸画像 5 1と糸画像 5 5は、 同じ糸を用い、 同じ位置で入力した。
糸画像 5 1と糸画像 5 5を比較すると、 実施例の方が毛羽が多く表現され、 比 較例では白っぽい画像となっている。 背景を黒とした部分で見ると、 比較例では 糸の両側に白筋のような部分が見え、 これは糸の毛羽のカラーデータと背景色の 白とが混合されて、 糸画像とされたためである。 これに対して実施例の糸画像 5 1は、 黒い背景で見ても白い背景で見ても、 リアルで写実的であり、 毛羽も豊富 である。 シミュレーション画像 5 4, 5 8で比較すると、 実施例の糸画像を用いた 画像 5 4では、 毛羽が豊富で編地の立体感が表現されている。 これに対して比較 例の画像 5 8では、 編地は精彩を欠き、 薄っぺらく平板に感じられる。
図 6は、 別の糸を用いて実施例で作成した糸画像とこれを用いたシミュレーシ ョン画像 6 3を示し、 6 1は糸画像の黒背景での表示、 6 2は白背景での表示で ある。 参考のため図 7に、 白い背景を用い、 比較例で作成した糸画像と、 これを 用いたシミュレーシヨン画像 7 3を示す。 7 1は比較例で作成した糸画像(白背景 で作成)の黒背景表示で、 7 2は白背景表示である。 比較例の糸画像は全体に白つ ぼくなつており、 また毛羽が実際以上に太く表現されている。 シミュレーション 画像 6 3 , 7 3を比較すると、 実施例では繊細な毛羽が立体感を伴って表現されて いるのに対し、 比較例のシミュレーション画像 7 3では実際以上に太い毛羽が表 現され、 かつ表現に立体感を欠いている。
実施例では以下の効果が得られる。
(1) 白い背景と黒い背景などの 2つの背景を用いて、 糸画像を同じ位置で 2回読 み込むことにより、 簡単に糸画像を作成できる。
(2) 作成した糸画像では、 糸のカラーデータや不透明度もリアルであり、 糸本体 や毛羽を高品位に表現できる。
(3) 得られた糸画像を用いて編地などのシミュレーション画像を作成すると、 毛 羽の部分や画像全体の色合いを写実的に表現でき、 このため編地の風合いを正確 に表現できる 実施例 2
上記の実施例では糸画像の作成を例にしたが、 この発明はこれ以外にも、 衣類 などの繊維製品やガラス製品などの透明物体に関する、 画像の作成に用いること ができる。 糸画像の場合、 毛羽を背景と区別して切り出すことが課題であった。 また毛羽の部分は半透明で、 切り出した毛羽の画像に背景が混入しないようにす ることが課題であった。 毛羽などの背景からの切り出しが難しい部分を自動的に 切り出し、 かつ半透明な部分について対象とする物体の画像から背景画像を除く ことは、 他の繊維製品でも重要なことである。 繊維製品には例えば衣類の他に、 カーテン、 毛布、 テーブルカバー、 クッションなどがある。 また繊維製品以外に も、 ガラス製品やフィルムや薄い紙などの透明感のある画像の作成にも、 この発 明を利用できる。 この発明では不透明度 Dを得ると共に、 背景から分離した対象 の物体自体の画像 Xを得ることができる。 そこで合成したい背景画像を F、 物体 の画像を X、 その不透明度を Dとすると、 合成画像 Kは
K = X D + F ( 1 - D ) = F + (X - F ) D (7)
により得られる。 用いる背景は少なくとも 2種類とし、 無地の背景が好ましい。 また撮影した画像中のどの部分が背景で、 どの部分が対象の物体であるかを入力 するため、 背景の部分を例えば 1個所マニュアルで入力することが好ましい。 マネキンなどが着用した衣類や、 家具、 調度、 ガラス製品などでは、 スキャナ で背景を変えて画像を撮像するのは難しく、 例えば背景を白と黒とに変えて、 デ ジタルカメラなどで撮影する。 デジタルカメラを用いて室内で撮影する場合、 ス タジォなどの優れた撮影環境でないと、 スキャナの場合に比べて、 背景にむらが 生じやすいので、 不透明度の伸張処理では、 D = 0や D = lとする範囲を図 4より もやや拡げることが好ましい。'
図 8〜図 1 1に、 マネキンが着用したメッシュタイプのニット衣類の画像に関 する実施例を示す。 図 1 0, 1 1は背景を白あるいは黒としてデジタルカメラで 撮影した画像である。 図 9は、 図 1 1からマニュアルでステンシルを作成し、 衣 類の画像を切り出して、 白あるいは黒の背景と合成した画像である。 図 9の従来 例では、 白背景で毛羽が不自然に黒くなつている。 これは毛羽に相当するピクセ ルのみを切り出すのが難しく、 また不透明度が不明なので、 切り出した毛羽のピ クセルに黒い背景画像が混じり込んでいるためである。 これに対して、 図 8の実 施例では、 背景を白にしても黒にしても、 自然な毛羽を備えた画像が得られてい る。
糸以外の画像を対象とする場合、 画像作成装置やプログラムは図 1のものをそ のまま用いれば良く、 画像の作成アルゴリズムは図 3のものをそのまま用いれば よい。 図 2の画像のスキャンに代えて、 上記のようにデジタルカメラなどによる 撮影を用いればよい。 図 1〜図 7の実施例に関する記載は、 実施例 2や実施例 3 にもそのまま当てはまる。
図 1 2〜図 1 4は、 同じ衣類を着用したマネキンの画像で、 図 1 3 , 図 1 4は 白あるいは黒の背景でのデジタルカメラの撮影画像で、 図 1 2は図 1 3, 図 1 4 を用い、 実施例により作成した画像を、 白あるいは黒の背景と合成したものであ る。 透明感のある、 袖やパンツのメッシュが表現されている。 これに対して、 図 1 3 , 図 1 4の画像のままでは、 メッシュの孔の部分を、 衣類自体の画像と背景 の画像とに分離するのは難しい。 そこで背景を変えると、 不自然な画像になって しまう。 実施例 3
図 1 5〜図 1 8に、 ガラス製品の画像に関する第 3の実施例を示す。 図 1 7、 図 1 8は白あるいは黒の背景で、 グラスと水差しをデジタルカメラで撮影した画 像である。 これから実施例によりガラス製品の画像 Xとその不透明度 Dの画像を 得て、 机や灰皿の背景画像と合成したのが図 1 5、 白と黒の 2つの背景画像と合 成したのが図 1 6である。 不透明度 Dの画像が得られているので、 背景を変えて も自然な画像が得られ(図 1 6 )、 また図 1 5の灰皿のある背景のように背景が不 均一な画像でも自然な画像が得られ、 表面の光沢も透明感を伴って表現されてい る(図 1 5, 図 1 6 )。

Claims

請求の範囲
1. 異なる背景画像(Gl, G2)を用いて少なくとも 2回光学的に読み取った対象 物体の入力画像 A, Cを記憶するための手段と、
対象物体のカラーまたはモノクロ画像を X、 その不透明度を Dとして、
A = G1+ (X-Gl)D
C = G2+ (X-G2)D
からなる連立方程式を X, Dについて解くための手段と、
得られた(X, D)を対象物体の画像として記憶するための手段、 とを備えた画像 作成装置。
2. 前記対象物体が糸で、 得られた(X, D)を糸画像として記憶することを特徴 とする、 請求の範囲第 1項の画像作成装置。
3. 前記対象物体が糸以外の繊維製品で、 得られた(X,D)を繊維製品の画像と して記憶することを特徴とする、 請求の範囲第 1項の画像作成装置。
4. Dが取る値の範囲を 0以上 1以下とした際に、 Dの値が第 1の所定値以下 で D= 0、 第 2の所定値以上で D= l、 かつ第 1の所定値と第 2の所定値の間で Dの値が 0〜1となるように、 Dの値を変更するための手段を設けたことを特徴 とする、 請求の範囲第 1項の画像作成装置。
5. 新たな背景画像 Fを入力するための手段と、 合成画像 Kを
K = XD + F (1 -D)
により求めるための手段、 とを設けたことを特徴とする、 請求の範囲第 1項の画 像作成装置。
6. 異なる背景画像(Gl, G2)を用いて少なくとも 2回対象物体の画像を光学的 に読み取って、 入力画像 A, Cとし、
対象物体のカラーまたはモノクロ画像を画像を X、 その不透明度を Dとして、 A = G1+ (X-Gl)D
C = G2+ (X-G2)D
からなる連立方程式を X, Dについて解き、 得られた(X, D)を対象物体の画像として記憶する、 画像作成方法。
7. 前記対象物体が糸で、 得られた(X,D)を糸画像として記憶することを特徴 とする、 請求の範囲第 6項の画像作成方法。
8. 前記対象物体が糸以外の繊維製品で、 得られた(X, D)を繊維製品の画像と して記憶することを特徴とする、 請求の範囲第 7項の画像作成方法。
9. Dが取る値の範囲を 0以上 1以下とした際に、 Dの値が第 1の所定値以下 で D=0、 第 2の所定値以上で D= 1、 かつ第 1の所定値と第 2の所定値の間で Dの値が 0〜 1となるように、 Dの値を変更するステップをさらに含むことを特 徴とする、 請求の範囲第 6項の画像作成方法。
1 0. 異なる背景画像(Gl, G2)を用いて少なくとも 2回光学的に読み取った、 対象物体の入力画像 A, Cを記憶するための命令と、
対象物体のカラーまたはモノクロ画像を画像を X、 その不透明度を Dとして、 A = G1+ (X— Gl) D
C = G2+ (X-G2) D
からなる連立方程式を X, Dについて解くための命令と、
得られた(X, D)を対象物体の画像として記憶するための命令とを備えた、 画像 作成プログラム。
1 1. 前記対象物体が糸で、 前記記憶命令では得られた(X,D)を糸画像として 記憶することを特徴とする、 請求の範囲第 1 0項の画像作成プログラム。
1 2. 前記対象物体が糸以外の繊維製品で、 前記記憶命令では得られた(X,
D)を繊維製品の画像として記憶することを特徴とする、 請求の範囲第 1 0項の画 像作成プログラム。
1 3. Dが取る値の範囲を 0以上 1以下とした際に、 Dの値が第 1の所定値以 下で D= 0、 第 2の所定値以上で D= 1、 かつ第 1の所定値と第 2の所定値の間 で Dの値が 0〜1となるように、 Dの値を変更するための命令を設けたことを特 徴とする、 請求の範囲第 1 0項の画像作成プログラム。
PCT/JP2005/001651 2004-02-03 2005-01-28 画像作成装置と画像作成方法、並びに画像作成プログラム WO2005076209A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP05709717A EP1720127B1 (en) 2004-02-03 2005-01-28 Image creation device and image creation method for yarn images
CN200580004003A CN100587716C (zh) 2004-02-03 2005-01-28 图像生成装置和图像生成方法
AT05709717T ATE484041T1 (de) 2004-02-03 2005-01-28 Bilderzeugungseinrichtung und bilderzeugungsverfahren fuer garn-bilder
KR1020067014988A KR101099623B1 (ko) 2004-02-03 2005-01-28 화상 작성장치와 화상 작성방법 및 화상 작성 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
US10/587,930 US7650018B2 (en) 2004-02-03 2005-01-28 Image creation device, image creation method, and image creation program
DE602005023961T DE602005023961D1 (de) 2004-02-03 2005-01-28 Bilderzeugungseinrichtung und bilderzeugungsverfahren fuer garn-bilder

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004026275 2004-02-03
JP2004-026275 2004-02-03
JP2004-360811 2004-12-14
JP2004360811A JP4533737B2 (ja) 2004-02-03 2004-12-14 糸画像作成装置と糸画像作成方法、並びに糸画像作成プログラム

Publications (1)

Publication Number Publication Date
WO2005076209A1 true WO2005076209A1 (ja) 2005-08-18

Family

ID=34840120

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/001651 WO2005076209A1 (ja) 2004-02-03 2005-01-28 画像作成装置と画像作成方法、並びに画像作成プログラム

Country Status (8)

Country Link
US (1) US7650018B2 (ja)
EP (1) EP1720127B1 (ja)
JP (1) JP4533737B2 (ja)
KR (1) KR101099623B1 (ja)
CN (1) CN100587716C (ja)
AT (1) ATE484041T1 (ja)
DE (1) DE602005023961D1 (ja)
WO (1) WO2005076209A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006004202A1 (en) * 2004-07-05 2006-01-12 Matsushita Electric Industrial Co., Ltd. Method of generating image of component
JP4977483B2 (ja) * 2007-01-30 2012-07-18 株式会社島精機製作所 ニットデザインシステムとデザイン方法
US8529263B1 (en) * 2012-07-13 2013-09-10 Create2Thrive Inc. System and method for interactive knitting functions
CN103945139A (zh) * 2014-01-07 2014-07-23 上海仙视电子有限公司 一种快速合成透明背景图片的摄影平台以及该摄影平台采用的图像处理方法
JP2019101508A (ja) * 2017-11-28 2019-06-24 パナソニックIpマネジメント株式会社 飲料提供システム
WO2019182964A1 (en) 2018-03-17 2019-09-26 Drexel University Topology optimization for modeling and prediction of complex fabric structures and properties
CN112347685B (zh) * 2020-11-30 2021-08-10 江南大学 彩纤二维混色空间网格模型与网格点阵列色谱构建及应用
CN112581600B (zh) * 2020-12-09 2024-01-26 北京维盛视通科技有限公司 电子服装的裘毛效果生成方法、装置、存储介质及设备
US11859321B2 (en) * 2021-03-31 2024-01-02 Drexel University Modular tool for design of self-folding knit fabrics

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS602238A (ja) * 1983-06-06 1985-01-08 横河メディカルシステム株式会社 Ct画像表示装置
JPH09179977A (ja) * 1995-12-21 1997-07-11 Shimadzu Corp 医用画像の階調自動処理装置
WO2002027657A2 (en) 2000-09-29 2002-04-04 Hewlett-Packard Company Image sharpening by variable contrast stretching
WO2002092180A2 (en) 2001-05-17 2002-11-21 Koninklijke Philips Electronics N.V. Device and method for digitizing an object
US20030085907A1 (en) * 2001-11-02 2003-05-08 Nippon Telegraph And Telephone Corporation Image processing method and image processing apparatus for obtaining overlaid image

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3436473B2 (ja) * 1997-06-20 2003-08-11 シャープ株式会社 画像処理装置
US6377269B1 (en) * 1998-05-29 2002-04-23 Robert L. Kay Automated generation of masks for photo-compositing
JP4079883B2 (ja) * 2001-10-05 2008-04-23 株式会社島精機製作所 ニットデザイン方法および装置
CN1284109C (zh) * 2001-10-05 2006-11-08 株式会社岛精机制作所 针织物的设计方法与设备
US7277572B2 (en) * 2003-10-10 2007-10-02 Macpearl Design Llc Three-dimensional interior design system
JP4237601B2 (ja) * 2003-10-15 2009-03-11 株式会社島精機製作所 ループシミュレーション装置とその方法並びにそのプログラム
US7324166B1 (en) * 2003-11-14 2008-01-29 Contour Entertainment Inc Live actor integration in pre-recorded well known video
JP4503312B2 (ja) * 2004-02-26 2010-07-14 株式会社島精機製作所 ニットガーメントの着装シミュレーション方法とその装置、並びにそのプログラム
DE102004053736B4 (de) * 2004-11-06 2013-05-29 Oerlikon Textile Gmbh & Co. Kg Garnsensor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS602238A (ja) * 1983-06-06 1985-01-08 横河メディカルシステム株式会社 Ct画像表示装置
JPH09179977A (ja) * 1995-12-21 1997-07-11 Shimadzu Corp 医用画像の階調自動処理装置
WO2002027657A2 (en) 2000-09-29 2002-04-04 Hewlett-Packard Company Image sharpening by variable contrast stretching
WO2002092180A2 (en) 2001-05-17 2002-11-21 Koninklijke Philips Electronics N.V. Device and method for digitizing an object
US20030085907A1 (en) * 2001-11-02 2003-05-08 Nippon Telegraph And Telephone Corporation Image processing method and image processing apparatus for obtaining overlaid image

Also Published As

Publication number Publication date
CN1914639A (zh) 2007-02-14
EP1720127A1 (en) 2006-11-08
KR20060128951A (ko) 2006-12-14
JP4533737B2 (ja) 2010-09-01
US20070127839A1 (en) 2007-06-07
JP2005251162A (ja) 2005-09-15
KR101099623B1 (ko) 2011-12-29
ATE484041T1 (de) 2010-10-15
DE602005023961D1 (de) 2010-11-18
EP1720127B1 (en) 2010-10-06
CN100587716C (zh) 2010-02-03
US7650018B2 (en) 2010-01-19
EP1720127A4 (en) 2009-03-18

Similar Documents

Publication Publication Date Title
WO2005076209A1 (ja) 画像作成装置と画像作成方法、並びに画像作成プログラム
JP7370527B2 (ja) 衣服の3次元モデルデータを生成するための方法およびコンピュータプログラム
CN106373178B (zh) 生成人工图像的装置和方法
JP2000003376A (ja) 衣服の補正方法及びこの方法を用いた衣服の補正装置
JP2003132350A (ja) 画像表示方法、画像処理方法、画像処理装置、走査読取装置および画像信号作成方法
CN113302354A (zh) 阴影中性3-d服装渲染
CN109242960A (zh) 采用双Kinect和旋转平台的人体实时建模系统及其建模方法
JP2004531822A (ja) 物体をデジタル化するための装置及び方法
US8184907B2 (en) Image processing method and image processing apparatus
JP7463774B2 (ja) メイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラム
CN109104545A (zh) 图像处理设备、图像处理方法和图像处理系统
KR20090012649A (ko) 의상의 형상과 미세구조를 동시에 스캐닝하는 방법 및시스템
CN111177929A (zh) 一种纺织面料物理特性数码属性模拟系统及测量方法
KR20090012651A (ko) 3차원 의상 데이터를 이용한 가상 의상의 데코레이션 방법
EP3923245A2 (en) Surface material pattern finish simulation device and surface material pattern finish simulation method
JP5057988B2 (ja) メランジ糸の画像シミュレーション装置とその方法及びプログラム
JP2010224775A (ja) アイキャッチ合成装置及び方法
JPH1153427A (ja) 画像の色柄設定方法および装置
JP2001125944A (ja) 試着シミュレーション方法および装置
JP2002056405A (ja) テクスチャマッピング処理装置
Likhacheva THE ANALYSIS OF 3D TECHNOLOGIES IN FASHION
KR100922600B1 (ko) 멀티미디어 캐릭터의 외곽선 렌더링 방법 및 장치
JP4188463B2 (ja) 画像生成装置、画像生成方法および記憶媒体
JP2021189788A5 (ja)
JP4007160B2 (ja) 画像処理方法及びその装置、並びに画像処理プログラムとこの画像処理プログラムを記録した記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 1020067014988

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2007127839

Country of ref document: US

Ref document number: 10587930

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580004003.1

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2005709717

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2005709717

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020067014988

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 10587930

Country of ref document: US