JP5010450B2 - Dressing simulation device, simulation method, and simulation program - Google Patents

Dressing simulation device, simulation method, and simulation program Download PDF

Info

Publication number
JP5010450B2
JP5010450B2 JP2007319658A JP2007319658A JP5010450B2 JP 5010450 B2 JP5010450 B2 JP 5010450B2 JP 2007319658 A JP2007319658 A JP 2007319658A JP 2007319658 A JP2007319658 A JP 2007319658A JP 5010450 B2 JP5010450 B2 JP 5010450B2
Authority
JP
Japan
Prior art keywords
image
design
simulation
pattern
knit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007319658A
Other languages
Japanese (ja)
Other versions
JP2009145959A (en
Inventor
眞司 森本
淳子 川崎
秀憲 坪井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shima Seiki Manufacturing Ltd
Original Assignee
Shima Seiki Manufacturing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shima Seiki Manufacturing Ltd filed Critical Shima Seiki Manufacturing Ltd
Priority to JP2007319658A priority Critical patent/JP5010450B2/en
Publication of JP2009145959A publication Critical patent/JP2009145959A/en
Application granted granted Critical
Publication of JP5010450B2 publication Critical patent/JP5010450B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

この発明は、着装シミュレーションに関し、特にシミュレーションの高速化に関する。   The present invention relates to dressing simulation, and more particularly to speeding up the simulation.

出願人は、ニットガーメントの着装状態を3次元的にシミュレーションすることを検討している。そしてシミュレーションでの課題は高速化であり、特許文献1:特開2005−242611、特許文献2:特開2005−240213、特許文献3:PCT/JP2007/64936において、高速化の手法を提案した。また特許文献4:特開平11−238086は、衣類のパーツの2D画像を表示して選択することや、人体モデルを変更した際の近似的なシミュレーションについて開示している。   The applicant is considering three-dimensional simulation of the wearing state of the knit garment. A problem in simulation is speeding up. Patent Document 1: Japanese Patent Application Laid-Open No. 2005-242611, Patent Document 2: Japanese Patent Application Laid-Open No. 2005-240213, and Patent Document 3: PCT / JP2007 / 64936 proposed a method for speeding up. Japanese Patent Application Laid-Open No. 11-238086 discloses a method of displaying and selecting a 2D image of a clothing part and an approximate simulation when a human body model is changed.

ニットガーメントの着装状態のシミュレーションでは、シミュレーションの途中でネック部などのパーツを変更することがある。例えば最初にU首のガーメントをシミュレーションし、次いでネックのデザインをV首やタートルネックなどに変更することがある。しかしながら特許文献1〜4の手法では、パーツを変更すると、シミュレーションを最初からやり直す必要があり、非効率である。
特開2005−242611 特開2005−240213 PCT/JP2007/64936 特開平11−238086
In the simulation of the wearing state of the knit garment, parts such as a neck portion may be changed during the simulation. For example, a U-neck garment may be simulated first, and then the neck design may be changed to a V-neck or a turtleneck. However, in the methods of Patent Documents 1 to 4, it is inefficient because it is necessary to restart the simulation from the beginning if the parts are changed.
JP-A-2005-242611 JP-A-2005-240213 PCT / JP2007 / 64936 JP-A-11-238086

この発明の課題は、パーツを変更した際に、変更後のニットガーメントに対するシミュレーションを短時間で行えるようにすることにある。   An object of the present invention is to enable simulation for a knit garment after the change in a short time when the part is changed.

この発明は、ニットガーメントのデザインを、コンピュータ上でモデルに3次元的に着装させる装置において、
前記デザインの特定箇所に前記デザインには存在しない所定形状のパーツを追加したデータを、前記モデルが着装している状態をシミュレーションした透明な3D画像を作成するための、3Dシミュレーション手段と、
前記デザインの特定箇所が変更されると、少なくともデザインの変更部に対して、モデルが着装する前のニットガーメントの画像を作成するための、ガーメント画像作成手段と、
作成したニットガーメントの画像を、前記3D画像上にマッピングするためのマッピング手段、とを設けたことを特徴とする。
The present invention provides an apparatus for three-dimensionally wearing a knit garment design on a model on a computer.
3D simulation means for creating a transparent 3D image simulating a state in which the model is worn with data obtained by adding a part having a predetermined shape that does not exist in the design to a specific location of the design ;
When the specific part of the design is changed, at least for the design change part, a garment image creation means for creating an image of the knit garment before the model is worn ,
Mapping means for mapping the created knit garment image on the 3D image is provided.

この発明はまた、ニットガーメントのデザインを、コンピュータ上でモデルに3次元的に着装させる方法において、
前記デザインの特定箇所に前記デザインには存在しない所定形状のパーツを追加したデータを、前記モデルが着装している状態をシミュレーションした透明な3D画像を作成し、
前記デザインの特定箇所が変更されると、少なくともデザインの変更部に対して、モデルが着装する前のニットガーメントの画像を作成し、
作成したニットガーメントの画像を、前記3D画像上にマッピングする、ことを特徴とする。
The present invention also provides a method for three-dimensionally attaching a knit garment design to a model on a computer.
Create a transparent 3D image that simulates a state in which the model is worn with data in which a part of a predetermined shape that does not exist in the design is added to a specific part of the design ,
When the specific part of the design is changed, at least for the design change part, create an image of the knit garment before the model is worn ,
The created knit garment image is mapped onto the 3D image.

この発明はまた、ニットガーメントのデザインをモデルが3次元的に着装した状態をシミュレーションするために、コンピュータで実行されるプログラムにおいて、
前記コンピュータに、
前記デザインの特定箇所に前記デザインには存在しない所定形状のパーツを追加したデータを、前記モデルが着装している状態をシミュレーションした透明な3D画像を作成するステップと、
前記デザインの特定箇所が変更されると、少なくともデザインの変更部に対して、モデルが着装する前のニットガーメントの画像を作成するステップと、
作成したニットガーメントの画像を、前記3D画像上にマッピングするステップ、とを実行させることを特徴とする。
The present invention also provides a program executed by a computer for simulating a state in which a model is three-dimensionally wearing a knit garment design.
In the computer,
Creating a transparent 3D image that simulates a state in which the model is worn with data in which a part having a predetermined shape that does not exist in the design is added to a specific part of the design ;
When the specific part of the design is changed, at least for the design change part, creating an image of the knit garment before the model is worn ;
An image of knit garment created, step of mapping on the 3D image, characterized in that to execute the city.

好ましくは、ニットガーメントのデザインに対応する形状のパターンの前記特定箇所に前記所定形状のパーツを追加したものを、前記データとして作成するための、パターン作成手段をさらに設け、
前記3Dシミュレーション手段は、前記パターンを前記モデルが着装した状態をシミュレーションした透明な3D画像を作成し
前記ガーメント画像作成手段はニットガーメント全体の画像を作成し、
前記マッピング手段は、パターンの前記3D画像上に、かつ前記追加したパーツを除く部分に、前記ニットガーメント全体の画像をマッピングし、
ガーメント画像作成手段は、少なくとも前記デザインの変更部に対してニットガーメントの画像を再作成し、再作成したニットガーメントの画像を前記マッピング手段で前記パターンの3D画像上に再度マッピングする。
Preferably, further providing a pattern creating means for creating, as the data, a part in which the predetermined shape part is added to the specific portion of the shape pattern corresponding to the design of the knit garment,
The 3D simulation means creates a transparent 3D image that simulates a state in which the model is worn on the pattern, and the garment image creation means creates an image of the entire knit garment,
The mapping means maps an image of the entire knit garment on the 3D image of a pattern and on a portion excluding the added part,
The garment image creation means re-creates a knit garment image at least for the design change section, and re-maps the re-created knit garment image onto the 3D image of the pattern by the mapping means.

好ましくは、前記特定箇所はニットガーメントのネック部で、前記所定形状のパーツはネックのデザインをタートルネックに変更するためのパーツである。
好ましくは、前記特定箇所はニットガーメントの袖で、前記所定形状のパーツは袖のデザインを長袖に変更するためのパーツである。
Preferably, the specific part is a neck part of a knit garment, and the part having the predetermined shape is a part for changing the design of the neck to a turtleneck.
Preferably, the specific part is a sleeve of a knit garment, and the part of the predetermined shape is a part for changing the design of the sleeve to a long sleeve.

好ましくは、前記デザインで組織柄が編集されると、
ガーメント画像作成手段で少なくとも編集された組織柄に対してニットガーメントの画像を再作成し、再作成したニットガーメントの画像を前記マッピング手段で前記パターンの3D画像上に再度マッピングする。
Preferably, when the organization pattern is edited in the design,
A knit garment image is re-created for at least the tissue pattern edited by the garment image creating means, and the re-created knit garment image is re-mapped on the 3D image of the pattern by the mapping means.

この明細書において、シミュレーション装置に関する記載は、シミュレーション方法やシミュレーションプログラムにもそのまま当てはまり、シミュレーション方法やシミュレーションプログラムに関する記載はシミュレーション装置にも当てはまる。   In this specification, the description regarding the simulation apparatus also applies to the simulation method and the simulation program as it is, and the description regarding the simulation method and the simulation program also applies to the simulation apparatus.

この発明では、ニットガーメントのデザインが変更された場合に、着装前の画像を作成し、3D画像にマッピングすれば良いので、シミュレーションを最初からやり直す場合に比べ、はるかに短時間でシミュレーションできる。   According to the present invention, when the design of the knit garment is changed, it is only necessary to create an image before wearing and map it to a 3D image. Therefore, the simulation can be performed in a much shorter time than when the simulation is restarted from the beginning.

ここでパターンの着装状態をシミュレーションして3D画像を得、この画像にニットガーメントの画像をマッピングすると、短時間で最初のシミュレーションが行える。   Here, a 3D image is obtained by simulating the wearing state of the pattern, and if the knit garment image is mapped to this image, the first simulation can be performed in a short time.

この発明は、ネック部のデザインを変更した場合や、袖のデザインを変更した場合に、短時間でシミュレーションを行える。   This invention can perform a simulation in a short time when the design of the neck portion is changed or when the design of the sleeve is changed.

また組織柄が編集されると、ニットガーメントの画像を再作成してパターンの3D画像上に再度マッピングすると、短時間で編集後の組織柄をシミュレーションできる。   When the tissue pattern is edited, the knit garment image can be recreated and re-mapped on the 3D image of the pattern to simulate the edited tissue pattern in a short time.

以下に本発明を実施するための最適実施例を示す。   In the following, an optimum embodiment for carrying out the present invention will be shown.

図1〜図11に、実施例を示す。図1に、着装シミュレーション装置2のハードウェアを示す。4はメインバス、6はグラフィックバスで、8はCPU(Central Processing Unit)で、10は汎用メモリである。11はマニュアル入力で、キーボードやマウス、スタイラス、ジョイスティック、トラックボールなどからなる。12はカラーモニタで、シミュレーションするニット製品のデザインや、シミュレーション画像を表示する。13はカラープリンタで、シミュレーション画像などをプリントする。入出力14は、ディスク15やインターネットなどとの間で入出力を行い、着装シミュレーションプログラムはディスク15などに記憶され、あるいはインターネットなどから搬送波を介して、入出力14へ供給される。   An example is shown in FIGS. FIG. 1 shows hardware of the wearing simulation apparatus 2. 4 is a main bus, 6 is a graphic bus, 8 is a CPU (Central Processing Unit), and 10 is a general-purpose memory. Reference numeral 11 denotes a manual input, which includes a keyboard, mouse, stylus, joystick, trackball, and the like. A color monitor 12 displays a design of a knit product to be simulated and a simulation image. A color printer 13 prints a simulation image or the like. The input / output 14 performs input / output with the disk 15 or the Internet, and the wearing simulation program is stored in the disk 15 or the like, or is supplied to the input / output 14 from the Internet or the like via a carrier wave.

GPU(Graphic Processing Unit)16は画像処理、特に3Dの画像処理に特化したプロセッサで、GPU用メモリ18に処理中のデータや処理結果のデータ(3D画像)を記憶する。そしてマニュアル入力11や入出力14からの入力をCPU8が解釈し、汎用メモリ10を用いて、3Dシミュレーション以外の処理を行い、CPU8からの指令により3DシミュレーションをGPU16が実行する。   A GPU (Graphic Processing Unit) 16 is a processor specialized for image processing, particularly 3D image processing, and stores data being processed and processing result data (3D images) in the GPU memory 18. The CPU 8 interprets the input from the manual input 11 and the input / output 14, performs processing other than the 3D simulation using the general-purpose memory 10, and the GPU 16 executes the 3D simulation in response to a command from the CPU 8.

図1の着装シミュレーション装置2に、実施例の着装シミュレーションプログラムを記憶させると、図2のようにアーキテクチャとなる。20はニットデザイン部で、マニュアル入力11や入出力14からの入力に応じて、ニットガーメントのデザインを行う。データ変換部21は、ニットガーメントのデザインデータを、横編機などの編機で実行できる編成データに変換する。パターン作成部22は、ニットガーメントのデザインあるいはそれに対応する編成データに応じた、パターン画像を作成する。なおこの明細書において、パターンデータとパターン画像は同義語である。ニットガーメントは前身頃,後身頃,襟,袖などの複数のパーツからなり、これらのパーツを無縫製で1着のニットガーメントとするか、縫製によりニットガーメントとするかは任意である。   If the wearing simulation program of the embodiment is stored in the wearing simulation apparatus 2 of FIG. 1, an architecture is obtained as shown in FIG. A knit design unit 20 designs a knit garment in response to an input from the manual input 11 or the input / output 14. The data converter 21 converts the knit garment design data into knitting data that can be executed by a knitting machine such as a flat knitting machine. The pattern creating unit 22 creates a pattern image corresponding to the design of the knit garment or the knitting data corresponding thereto. In this specification, pattern data and pattern image are synonymous. A knit garment is composed of a plurality of parts such as a front body, a back body, a collar, and a sleeve, and it is arbitrary whether these parts are sewn into a single knit garment or a knit garment by sewing.

パターンはこれらのパーツの集まりに対応し、ニットガーメントや編成データは10万目程度の編目を含んでいる。これに対してパターンは、ニットガーメントの素材に応じた密度と剛性とを備えた厚さのないシートである。パターンの物理的なモデルは、パターンを格子状に仕切った個々の点からなり、各点は質量を備えてバネにより隣接点と接続されている。なおこのようなパターンのモデル自体は、布帛(Woven Fabric)の着装シミュレーションにおいて良く知られている。   The pattern corresponds to a collection of these parts, and the knit garment and knitting data include about 100,000 stitches. On the other hand, the pattern is a non-thick sheet having a density and rigidity corresponding to the material of the knit garment. A physical model of a pattern is composed of individual points obtained by partitioning the pattern in a grid pattern, and each point has a mass and is connected to an adjacent point by a spring. Note that such a pattern model itself is well known in a wearing simulation of a fabric (Woven Fabric).

実施例で作成するパターンは、ニットガーメントのデザインとは必ずしも一致せず、一般に、ニットガーメントのデザインよりも、ネックや袖などのデザイン変更が行われやすい部分を長くしてある。例えばネックのデザインでは、U首,V首,タートルネックが良く用いられ、パターン作成部22はU首やV首のデザインに対しても、タートルネックのデザインを出力する。また袖では手首までの長袖や短い袖が用いられ、パターン作成部22は、袖が存在する場合、長袖のパターンを作成する。同様にセーター、ワンピースやスカートなどでは、丈の自由度があり、パターン作成部22は長い丈のパターンを作成する。付加パターン記憶部23は、ニットガーメントのデザインに対し、ネックのデザインをタートルネックに変更し、袖のデザインを長袖に変更し、丈を長い丈に変更するためのルールを記憶している。   The pattern created in the embodiment does not necessarily match the design of the knit garment, and generally, the portion such as the neck and the sleeve where the design is easily changed is made longer than the design of the knit garment. For example, in the neck design, a U neck, a V neck, and a turtleneck are often used, and the pattern creation unit 22 outputs the turtleneck design for the U neck and V neck designs. In addition, long sleeves up to the wrist or short sleeves are used for the sleeves, and the pattern creating unit 22 creates a long sleeve pattern when the sleeves exist. Similarly, a sweater, a dress, a skirt, and the like have a degree of freedom in length, and the pattern creation unit 22 creates a long length pattern. The additional pattern storage unit 23 stores rules for changing the neck design to a turtleneck, changing the sleeve design to long sleeves, and changing the length to a long length with respect to the knit garment design.

ニットシミュレーション部25は、編成データを基にニット製品の2Dシミュレーションを実行し、あるいは人体モデル無しでの3Dシミュレーションを実行する。2Dシミュレーションでニットガーメントの2D画像が得られ、3Dシミュレーションでは人体モデル無しでの3D画像が得られる。着装状態をシミュレーションすると、人体モデルとの干渉や重力によるドレープなどのため、シミュレーションに長時間を要する。これに対して、例えば平らな板の上に置かれたニットガーメントを3Dシミュレーションするのであれば、シミュレーション時間は短い。また2Dシミュレーションでは、より高速でシミュレーションできる。   The knit simulation unit 25 executes 2D simulation of the knit product based on the knitting data, or executes 3D simulation without a human body model. A 2D simulation provides a 2D image of the knit garment, and a 3D simulation provides a 3D image without a human body model. When the wearing state is simulated, the simulation takes a long time due to interference with the human body model and drape due to gravity. On the other hand, for example, if a 3D simulation of a knit garment placed on a flat board is performed, the simulation time is short. In 2D simulation, simulation can be performed at higher speed.

パターンシミュレーション部26は、パターン作成部22で作成した個々のパターン(パーツ)を縫製して得られる仮想的なガーメントに対し、人体モデルへの着装状態を3Dシミュレーションする。このシミュレーションは布帛から成る衣類のシミュレーションにおいて知られている。メモリ28は種々のデータを記憶し、例えばニットガーメントの編成データや2Dシミュレーション画像、あるいは平らな台上での3Dシミュレーショ画像、シミュレーション前の2Dパターンの画像、並びにパターンの着装状態をシミュレーションした3Dパターン画像などを記憶する。   The pattern simulation unit 26 performs a 3D simulation of the wearing state of the human body model on the virtual garment obtained by sewing the individual patterns (parts) created by the pattern creation unit 22. This simulation is known in the simulation of garments made of fabric. The memory 28 stores various data, for example, knit garment knitting data, 2D simulation images, 3D simulation images on a flat table, 2D pattern images before simulation, and 3D simulation of the wearing state of the patterns. A pattern image or the like is stored.

差分部30は、ニットガーメントのデザインの変更部、もしくはそれに伴う編成データの変更部を検出する。即ちニットガーメントのデザインが変更された部分を検出する。マッピング部32は、2Dシミュレーション画像、もしくは平らな台上でのニットの3Dシミュレーション画像を、2Dパターン画像を介して、3Dパターン画像へマッピングする。これによってニットガーメントの編目が着装状態をシミュレーションした3Dパターン画像へマッピングされる。   The difference unit 30 detects a knit garment design change unit or a knitting data change unit associated therewith. That is, the part where the design of the knit garment is changed is detected. The mapping unit 32 maps the 2D simulation image or the 3D simulation image of the knit on the flat table to the 3D pattern image via the 2D pattern image. Thereby, the stitches of the knit garment are mapped to the 3D pattern image that simulates the wearing state.

パターンの着装状態のシミュレーションは、ニットガーメントの着装状態のシミュレーションとしては近似的なものなのである。そこでニット3Dシミュレーション部33を設けて、マッピングにより得られたニットの3Dシミュレーションデータに対し、編目の位置が安定するまで追加のシミュレーションを行っても良い。ただしニット3Dシミュレーション部33は設けなくても良く、発明者の経験では追加のシミュレーション無しで、高品質のシミュレーション画像が得られる。人体モデル記憶部34は、ニットガーメントやパターンを着装する人体モデルを記憶する。   The simulation of the wearing state of the pattern is approximate as the simulation of the wearing state of the knit garment. Therefore, a knit 3D simulation unit 33 may be provided, and additional simulation may be performed on the knit 3D simulation data obtained by mapping until the stitch position is stabilized. However, the knit 3D simulation unit 33 may not be provided, and a high-quality simulation image can be obtained without additional simulation according to the inventor's experience. The human body model storage unit 34 stores a human body model wearing a knit garment or pattern.

図3,図4に、ネックのデザイン変更と組織柄の追加の2つを例に、ニットガーメントの着装状態のシミュレーションを示す。最初にニットガーメントをデザインし、デザインデータを編成データに変換する。そしてデザインデータに対応したパターンデータを作成し、パターンデータのネックをタートルネックに変更する。なおこれ以外に、袖を長袖に変更し、丈を長い丈に変更するなどの処理を行っても良い。またポケットを追加するなどの処理を加えてもよい。ネック部のデザインをタートルネックに変更した後のパターンデータに対し、着装状態を3Dシミュレーションする。これ以外に編成データからニットガーメントの2Dシミュレーションを行う。もしくは平らな台上に配置したニットガーメントの3Dシミュレーションを行う。   FIGS. 3 and 4 show simulations of the wearing state of the knit garment, taking two examples of neck design change and tissue pattern addition. First, knit garment is designed, and design data is converted into knitting data. Then, pattern data corresponding to the design data is created, and the neck of the pattern data is changed to the turtle neck. In addition to this, processing such as changing the sleeve to a long sleeve and changing the length to a long length may be performed. Processing such as adding a pocket may be added. 3D simulation of the wearing state is performed on the pattern data after changing the neck design to the turtleneck. In addition, 2D simulation of the knit garment is performed from the knitting data. Alternatively, a 3D simulation of a knit garment placed on a flat table is performed.

次に2Dもしくは3Dのニットのシミュレーション画像を、パターンデータを介して、パターンの着装状態を表す3D画像へマッピングする。ニットの2Dシミュレーション画像や平らな台上での3Dシミュレーション画像と、パターンデータの画像は例えば輪郭がほぼ同じで、どの編目がパターンのどの位置に対応するかは容易に求めることができる。そしてパターン上の各点がシミュレーション後のパターンの3D画像のどの位置に対応するかも、容易に求めることができる。これによって、ニットの各編目を3Dパターン画像のどの位置にマッピングするかを容易に決定できる。一般にニットガーメントは数万〜数十万個の編目を含むが、パターンを用いて着装状態をシミュレーションするのであれば、数百〜数千個程度の質点を考慮すればよい。そしてマッピングは高速で行える。このため着装状態のシミュレーションが容易になる。   Next, the simulation image of the 2D or 3D knit is mapped to a 3D image representing the wearing state of the pattern via the pattern data. The knit 2D simulation image, the 3D simulation image on a flat table, and the pattern data image, for example, have substantially the same contour, and it can be easily determined which stitch corresponds to which position of the pattern. Then, it can be easily determined which point on the pattern corresponds to which position in the 3D image of the pattern after simulation. Thereby, it is possible to easily determine at which position in the 3D pattern image each stitch of the knit is mapped. Generally, a knit garment includes tens of thousands to hundreds of thousands of stitches. However, if a wearing state is simulated using a pattern, several hundreds to thousands of mass points may be considered. And mapping can be done at high speed. This facilitates simulation of the wearing state.

セーターなどのデザインではネックのデザインを変更することがある。そこでネックのデザインが変更されると、2Dのニットシミュレーション画像を変更する。ただしシミュレーションを最初からやり直す必要はなく、差分部で検出したデザインの変更箇所とその周囲をシミュレーションすればよい。そして変更後のニットのシミュレーション画像を、パターンの3D画像にマッピングする。例えば変更後のデザインがU首であれば、タートルネックの部分に編目はなく、パターンの3Dシミュレーション画像のうちでU首に対応する部分のみにマッピングされる。またパターン自体は透明な画像とする。従ってマッピングにより得られる画像は、U首に対応する画像となる。   In the design of sweaters, the neck design may change. Therefore, when the neck design is changed, the 2D knit simulation image is changed. However, it is not necessary to restart the simulation from the beginning, and it is sufficient to simulate the design change point detected by the difference unit and its surroundings. Then, the knit simulation image after the change is mapped to a 3D image of the pattern. For example, if the design after the change is a U-neck, there is no stitch in the turtleneck portion, and the pattern is mapped only to the portion corresponding to the U-neck in the 3D simulation image of the pattern. The pattern itself is a transparent image. Therefore, the image obtained by mapping is an image corresponding to the U neck.

このようにすると、デザインの変更部に対してのみ2Dのニットシミュレーション画像等を変更し、変更後のニットシミュレーション画像をマッピングすればよい。マッピングを再度行う部分も、差分部で検出した範囲のみでよい。これらのため、デザイン変更を高速でシミュレーションできる。   In this way, it is only necessary to change the 2D knit simulation image or the like only for the design change portion and map the changed knit simulation image. The part where mapping is performed again may be only the range detected by the difference part. Because of these, design changes can be simulated at high speed.

同様のことは袖を変更し、あるいは身頃の丈などを変更する場合にも行える。またポケットのないニットガーメントのデザインに対し、ポケット付きのパターンを作成して3Dシミュレーションする。そしてポケット無しのニットガーメントの編目を、ポケット付きの透明のパターンのシミュレーション画像にマッピングすると、ポケットの無いニットガーメントの着装状態をシミュレーションできる。ここからポケットを追加すると、ポケットの部分のみ編成データを変更し、ニットのシミュレーション画像をポケットの部分で変更して、ポケットの部分のみマッピングをやり直せばよい。ここでの原則は、大は小を兼ねることで、様々なデザインがあるパーツに対して、これらのデザインを含む大きなパーツをパターンとして作成することである。   The same thing can be done when changing sleeves or body length. A pocketed pattern is created and 3D simulated for a knit garment design without pockets. If the stitches of the knit garment without pockets are mapped to a simulation image of a transparent pattern with pockets, the wearing state of the knit garment without pockets can be simulated. When a pocket is added from here, it is only necessary to change the knitting data only in the pocket portion, change the simulation image of the knit in the pocket portion, and re-mapping only the pocket portion. The principle here is to create a large part including these designs as a pattern for parts with various designs, both large and small.

シミュレーションの過程で、ニットガーメントに組織柄を追加し、あるいは組織柄を変更もしくは削除することがある。ここで組織柄の追加を例に説明する。組織柄が追加されると、関係する部分を差分部で検出し、編成データを変更し、変更後の編成データに対して2Dのニットシミュレーション画像を作成する。そして変更後のニットシミュレーション画像を、着装状態をシミュレーションした3Dパターン画像にマッピングする。マッピングする範囲は、例えば組織柄の追加に伴って編成データを変更した部分のみでよい。ただし組織柄の追加によって編目に働く張力などが変化し、2Dシミュレーション画像の輪郭が変化することがある。このような場合、組織柄以外の位置でも、編目のマッピング先が異なるので、2Dのニットシミュレーション画像の全体をマッピングし直すことが好ましい。ここでも、平らな台上の3Dのシミュレーション画像を2D画像に代えて用いることができ、組織柄の変更や削除の場合も同様である。   During the simulation process, a texture pattern may be added to the knit garment, or the texture pattern may be changed or deleted. Here, the addition of a tissue pattern will be described as an example. When the tissue pattern is added, a related portion is detected by the difference unit, the knitting data is changed, and a 2D knit simulation image is created for the changed knitting data. Then, the changed knit simulation image is mapped to a 3D pattern image in which the wearing state is simulated. The range to be mapped may be, for example, only a portion where the knitting data is changed with the addition of the organization pattern. However, the tension applied to the stitches may change due to the addition of the texture pattern, and the contour of the 2D simulation image may change. In such a case, it is preferable to remap the entire 2D knit simulation image because the stitch mapping destination is different even at positions other than the tissue pattern. Again, a 3D simulation image on a flat table can be used in place of the 2D image, and the same applies to the change or deletion of the tissue pattern.

図5に実施例の着装シミュレーションプログラム50を示し、その作用は図2のニットシミュレーション装置に関し、図3,図4で説明したものと同様である。51はニットデザイン命令で、ニットガーメントをデザインし、データ変換命令52はニットのデザインを編成データに変換する。パターン作成命令53はニットのデザインもしくは編成データをパターンに変換し、ここでネックのデザインを一律にタートルネックにし、袖のデザインを一律に長袖にする、などのデザイン変更を行う。ニットシミュレーション命令54は、編成データを基に2Dもしくは平らな台上での3Dのシミュレーション画像を作成する。パターン3Dシミュレーション命令55は、パターンに対し人体モデルに対する着装状態を3Dシミュレーションする。マッピング命令56は、ニットのシミュレーション画像を、2Dパターン画像を介して3Dパターンのシミュレーション画像にマッピングする。   FIG. 5 shows the wearing simulation program 50 of the embodiment, and the operation thereof is the same as that described with reference to FIGS. 3 and 4 for the knit simulation apparatus of FIG. A knit design instruction 51 designs a knit garment, and a data conversion instruction 52 converts the knit design into knitting data. The pattern creation command 53 converts the knit design or knitting data into a pattern, and performs design changes such as uniformly changing the neck design into a turtleneck and uniformly changing the sleeve design into long sleeves. The knit simulation command 54 creates a 2D simulation image on a flat table based on the knitting data. The pattern 3D simulation instruction 55 performs 3D simulation of the wearing state of the human body model with respect to the pattern. The mapping command 56 maps the knit simulation image to the 3D pattern simulation image via the 2D pattern image.

差分命令57は、ニットガーメントのデザイン変更が行われた場合に、デザイン変更に関係する部分を検出する。そしてデザインを変更した部分に対し、ニットシミュレーション命令54でシミュレーションを再度実行し、マッピング命令56でマッピングを再度実行する。   The difference instruction 57 detects a part related to the design change when the design change of the knit garment is performed. Then, the simulation is again executed with the knit simulation command 54 for the part whose design has been changed, and the mapping is again executed with the mapping command 56.

図6〜図11に、シミュレーションの例を示す。図6はセーターのパターンを示し、61はU首のパターン、62はV首のパターン、63はタートルネックのパターンで、ネック自体のパターン64を分離して示してある。そしてU首やV首のデザインがなされた場合でも、タートルネックのパターン63を作成する。図7は、図6に対応するニットガーメントの2Dシミュレーション画像を示し、ここでは前身頃のみを示してある。71はU首のニットシミュレーション画像、72はV首のニットシミュレーション画像、73はタートルネックのニットシミュレーション画像で、ネック自体の画像は省略してある。図6のパターンと図7のシミュレーション画像は形状が類似で、図7のシミュレーション画像での各編目が、図6のパターンのどの位置にマッピングされるかは、容易に求めることができる。   An example of simulation is shown in FIGS. FIG. 6 shows a sweater pattern, 61 is a U-neck pattern, 62 is a V-neck pattern, 63 is a turtleneck pattern, and a neck pattern 64 is shown separately. Even when the U-neck and V-neck designs are made, the turtleneck pattern 63 is created. FIG. 7 shows a 2D simulation image of the knit garment corresponding to FIG. 6, where only the front body is shown. 71 is a knit simulation image of a U neck, 72 is a knit simulation image of a V neck, 73 is a knit simulation image of a turtle neck, and an image of the neck itself is omitted. The pattern in FIG. 6 and the simulation image in FIG. 7 are similar in shape, and it can be easily determined at which position of the pattern in FIG. 6 each stitch in the simulation image in FIG. 7 is mapped.

図6のタートルネックのパターンを基に、人体モデルへの着装状態をシミュレーションすると、図8のシミュレーション画像80が得られる。このシミュレーションでは、多数の編目を扱う代わりに、パターンを互いにバネで接続された質点で表現できる。このためモデルが単純化され、シミュレーションを短時間で行える。   Based on the turtleneck pattern in FIG. 6, a simulation image 80 in FIG. 8 is obtained by simulating the wearing state on the human body model. In this simulation, instead of handling a large number of stitches, patterns can be expressed by mass points connected by springs. For this reason, the model is simplified and simulation can be performed in a short time.

次にタートルネックのシミュレーション画像を、図8の画像80に3Dマッピングすると、図9のシミュレーション画像90が得られる。ニットの元のシミュレーション画像が2Dの場合、これは画像80に対してニットの2Dシミュレーション画像をテクスチャーマッピングすることである。ニットのシミュレーション画像が3D画像の場合、画像は多数のポリゴンで構成されている。編目の単位で考えると、編目の中心を画像80のどの位置にマッピングするかは、容易に求めることができる。次に編目がどの向きを向いているかは、画像80の各位置のポリゴンの向きから求めることができる。そこでマッピング先での画像80の向きを基に編目の向きを定め、編目を構成する多数のポリゴンを画像80へマッピングする。この結果平らな台上での3Dのニットのシミュレーション画像を、画像80側へマッピングできる。   Next, when the simulation image of the turtleneck is 3D mapped to the image 80 of FIG. 8, the simulation image 90 of FIG. 9 is obtained. If the original knit simulation image is 2D, this is texture mapping the knit 2D simulation image to the image 80. When the knit simulation image is a 3D image, the image is composed of a large number of polygons. Considering the stitch unit, it can be easily determined which position in the image 80 the center of the stitch is mapped to. Next, the direction in which the stitch is oriented can be obtained from the orientation of the polygon at each position of the image 80. Therefore, the direction of the stitch is determined based on the orientation of the image 80 at the mapping destination, and a large number of polygons constituting the stitch are mapped to the image 80. As a result, the simulation image of the 3D knit on the flat table can be mapped to the image 80 side.

図10はV首に対するシミュレーション画像100を示し、図11はU首に対するシミュレーション画像110を示す。ネック部のデザインが変更されると、変更箇所を差分部で検出し、変更箇所に対して2Dや平らな台上での3Dのシミュレーションを再実行する。そして変更箇所のみを、タートルネックのパターン63を介して画像80にマッピングする。マッピングが行われる範囲は、V首の場合パターン62に対応する部分で、U首の場合パターン61に対応する部分である。そして画像80は透明とする。以上のようにして、ネックのデザイン変更に対して、短時間でシミュレーションを再実行できる。   FIG. 10 shows a simulation image 100 for the V neck, and FIG. 11 shows a simulation image 110 for the U neck. When the design of the neck portion is changed, the changed portion is detected by the difference portion, and 2D or 3D simulation on a flat table is re-executed with respect to the changed portion. Only the changed portion is mapped to the image 80 via the turtleneck pattern 63. The range in which mapping is performed is a portion corresponding to the pattern 62 in the case of the V neck and a portion corresponding to the pattern 61 in the case of the U neck. The image 80 is transparent. As described above, the simulation can be re-executed in a short time with respect to the design change of the neck.

ここではネックのデザイン変更について具体例を示したが、袖や丈の変更、ポケットの有無なども同様である。また組織柄の追加や変更なども同様に行える。実施例では最初のシミュレーションの高速化のために、パターンの着装状態をシミュレーションした。しかし最初に図9のタートルネックのデザインをシミュレーションして画像90を得、これにU首やV首の2D画像や未着装状態での3D画像をマッピングしても良い。そしてマッピングされなかった範囲で、図9の画像90を透明にする。   Here, a specific example has been shown for changing the design of the neck, but the same applies to the change of sleeves and length, the presence or absence of pockets, and the like. You can also add or change organizational patterns in the same way. In the embodiment, the pattern wearing state was simulated in order to speed up the initial simulation. However, the design of the turtleneck in FIG. 9 may be first simulated to obtain an image 90, and a 2D image of a U neck or a V neck or a 3D image in a non-wearing state may be mapped to this. Then, the image 90 in FIG. 9 is made transparent within the range that has not been mapped.

実施例では以下の効果が得られる。
(1) パターンの着装状態をシミュレーションし、これにニットのシミュレーション画像をマッピングするので、ニットガーメントの着装状態を短時間でシミュレーションできる。
(2) ニットガーメントのデザインを変更した場合、変更箇所についてのみニットの2Dあるいは平らな台上での3Dシミュレーションを再実行すると共に、マッピングを再実行すればよいので、デザイン変更に短時間で対応できる。
(3) このため、ネックや袖丈、身頃の丈など、デザインの変更が頻繁に行われる部分に対し、デザイン変更に短時間で対応できる。
(4) 同様に組織柄の追加などにも、短時間で対応できる。
In the embodiment, the following effects can be obtained.
(1) Since the pattern wearing state is simulated and the knit simulation image is mapped to this, the wearing state of the knit garment can be simulated in a short time.
(2) If the design of the knit garment is changed, only the changed part can be re-executed with 2D or 3D simulation on a flat table, and mapping can be executed again. it can.
(3) For this reason, it is possible to respond to design changes in a short time for parts that are frequently changed, such as the neck, sleeve length, and body length.
(4) Similarly, it is possible to respond to the addition of organizational patterns in a short time.

実施例の着装シミュレーション装置のハードウェア構成を示す図The figure which shows the hardware constitutions of the dressing simulation apparatus of an Example. 実施例の着装シミュレーションのブロック図で、入出力を省略して示す。In the block diagram of the wearing simulation of the embodiment, the input / output is omitted. 実施例の着装シミュレーション方法の前半を示すフローチャートThe flowchart which shows the first half of the wearing simulation method of an Example 実施例の着装シミュレーション方法の後半を示すフローチャートThe flowchart which shows the second half of the wearing simulation method of an Example 実施例の着装シミュレーションプログラムを示す図The figure which shows the dressing simulation program of an Example タートルネック、V首、U首の3つのパターンを示す図The figure which shows three patterns of a turtleneck, V neck, and U neck タートルネック、V首、U首の2Dニットシミュレーション画像を示す図The figure which shows the 2D knit simulation image of the turtleneck, V neck and U neck タートルネックの型紙に対するガーメントの着装状態を示す図The figure which shows the wearing condition of the garment to the pattern of the turtleneck タートルネックのニットガーメントの着装状態を示す図The figure which shows the wearing state of the knit garment of the turtle neck V首のニットガーメントの着装状態を示す図The figure which shows the wearing condition of the knit garment of V neck U首のニットガーメントの着装状態を示す図The figure which shows the wearing condition of the knit garment of U neck

符号の説明Explanation of symbols

2 着装シミュレーション装置
4 メインバス
6 グラフィックバス
8 CPU
10 汎用メモリ
11 マニュアル入力
12 カラーモニタ
13 カラープリンタ
14 入出力
15 ディスク
16 GPU
18 GPU用メモリ
20 ニットデザイン部
21 データ変換部
22 パターン作成部
23 付加パターン記憶部
25 ニットシミュレーション部
26 パターンシミュレーション部
28 メモリ
30 差分部
32 マッピング部
33 ニット3Dシミュレーション部
34 人体モデル記憶部
50 着装シミュレーションプログラム
51 ニットデザイン命令
52 データ変換命令
53 パターン作成命令
54 ニットシミュレーション命令
55 パターン3Dシミュレーション命令
56 マッピング命令
57 差分命令
61 U首のパターン
62 V首のパターン
63 タートルネックのパターン
64 ネックのパターン
71 U首のニットシミュレーション画像
72 V首のニットシミュレーション画像
73 タートルネックのニットシミュレーション画像
80 シミュレーション画像
90〜110 シミュレーション画像
2 Dressing simulation device 4 Main bus 6 Graphic bus 8 CPU
10 General-purpose memory 11 Manual input 12 Color monitor 13 Color printer 14 Input / output 15 Disk
16 GPU
18 GPU memory 20 Knit design unit 21 Data conversion unit 22 Pattern creation unit 23 Additional pattern storage unit 25 Knit simulation unit 26 Pattern simulation unit 28 Memory 30 Difference unit 32 Mapping unit 33 Knit 3D simulation unit 34 Human body model storage unit 50 Dressing simulation program
51 Knit design instruction 52 Data conversion instruction 53 Pattern creation instruction 54 Knit simulation instruction 55 Pattern 3D simulation instruction 56 Mapping instruction 57 Difference instruction
61 U-neck pattern 62 V-neck pattern 63 Turtle neck pattern 64 Neck pattern 71 U-neck knit simulation image 72 V-neck knit simulation image 73 Turtleneck knit simulation image 80 Simulation images 90 to 110 Simulation image

Claims (7)

ニットガーメントのデザインを、コンピュータ上でモデルに3次元的に着装させる装置において、
前記デザインの特定箇所に前記デザインには存在しない所定形状のパーツを追加したデータを、前記モデルが着装している状態をシミュレーションした透明な3D画像を作成するための、3Dシミュレーション手段と、
前記デザインの特定箇所が変更されると、少なくともデザインの変更部に対して、モデルが着装する前のニットガーメントの画像を作成するための、ガーメント画像作成手段と、
作成したニットガーメントの画像を、前記3D画像上にマッピングするためのマッピング手段、とを設けたことを特徴とする着装シミュレーション装置。
In a device for three-dimensionally wearing a knit garment design to a model on a computer,
3D simulation means for creating a transparent 3D image simulating a state in which the model is worn with data obtained by adding a part having a predetermined shape that does not exist in the design to a specific location of the design ;
When the specific part of the design is changed, at least for the design change part, a garment image creation means for creating an image of the knit garment before the model is worn ,
A wearing simulation apparatus, comprising: mapping means for mapping the created knit garment image on the 3D image.
ニットガーメントのデザインに対応する形状のパターンの前記特定箇所に前記所定形状のパーツを追加したものを、前記データとして作成するための、パターン作成手段をさらに設け、
前記3Dシミュレーション手段は、前記パターンを前記モデルが着装した状態をシミュレーションした透明な3D画像を作成し
前記ガーメント画像作成手段はニットガーメント全体の画像を作成し、
前記マッピング手段は、パターンの前記3D画像上に、かつ前記追加したパーツを除く部分に、前記ニットガーメント全体の画像をマッピングし、
ガーメント画像作成手段は、少なくとも前記デザインの変更部に対してニットガーメントの画像を再作成し、再作成したニットガーメントの画像を前記マッピング手段で前記パターンの3D画像上に再度マッピングするようにしたことを特徴とする、請求項1の着装シミュレーション装置。
A pattern creation means for creating, as the data, a part in which the part having the predetermined shape is added to the specific portion of the pattern having a shape corresponding to the design of the knit garment,
The 3D simulation means creates a transparent 3D image that simulates a state in which the model is worn on the pattern, and the garment image creation means creates an image of the entire knit garment,
The mapping means maps an image of the entire knit garment on the 3D image of a pattern and on a portion excluding the added part,
The garment image creation means recreates a knit garment image at least for the design change part, and re-maps the recreated knit garment image onto the 3D image of the pattern by the mapping means. The wearing simulation apparatus according to claim 1, wherein:
前記特定箇所はニットガーメントのネック部で、前記所定形状のパーツはネックのデザインをタートルネックに変更するためのパーツである、ことを特徴とする、請求項2の着装シミュレーション装置。 3. The wearing simulation apparatus according to claim 2, wherein the specific part is a neck part of a knit garment, and the part having the predetermined shape is a part for changing a neck design to a turtleneck. 前記特定箇所はニットガーメントの袖で、前記所定形状のパーツは袖のデザインを長袖に変更するためのパーツである、ことを特徴とする、請求項2の着装シミュレーション装置。 3. The wearing simulation apparatus according to claim 2, wherein the specific part is a sleeve of a knit garment, and the part having the predetermined shape is a part for changing the sleeve design to a long sleeve. 前記デザインで組織柄が編集されると、
ガーメント画像作成手段で少なくとも編集された組織柄に対してニットガーメントの画像を再作成し、再作成したニットガーメントの画像を前記マッピング手段で前記パターンの3D画像上に再度マッピングするようにしたことを特徴とする、請求項2の着装シミュレーション装置。
When the organization pattern is edited with the design,
The knit garment image is re-created for the tissue pattern edited at least by the garment image creating means, and the re-created knit garment image is re-mapped on the 3D image of the pattern by the mapping means. The wearing simulation apparatus according to claim 2, wherein the wearing simulation apparatus is characterized.
ニットガーメントのデザインを、コンピュータ上でモデルに3次元的に着装させる方法において、
前記デザインの特定箇所に前記デザインには存在しない所定形状のパーツを追加したデータを、前記モデルが着装している状態をシミュレーションした透明な3D画像を作成し、
前記デザインの特定箇所が変更されると、少なくともデザインの変更部に対して、モデルが着装する前のニットガーメントの画像を作成し、
作成したニットガーメントの画像を、前記3D画像上にマッピングする、ことを特徴とする着装シミュレーション方法。
In a method for three-dimensionally wearing a knit garment design to a model on a computer,
Create a transparent 3D image that simulates a state in which the model is worn with data in which a part of a predetermined shape that does not exist in the design is added to a specific part of the design ,
When the specific part of the design is changed, at least for the design change part, create an image of the knit garment before the model is worn ,
A dressing simulation method, wherein the created knit garment image is mapped onto the 3D image.
ニットガーメントのデザインをモデルが3次元的に着装した状態をシミュレーションするために、コンピュータで実行されるプログラムにおいて、
前記コンピュータに、
前記デザインの特定箇所に前記デザインには存在しない所定形状のパーツを追加したデータを、前記モデルが着装している状態をシミュレーションした透明な3D画像を作成するステップと、
前記デザインの特定箇所が変更されると、少なくともデザインの変更部に対して、モデルが着装する前のニットガーメントの画像を作成するステップと、
作成したニットガーメントの画像を、前記3D画像上にマッピングするステップ、とを実行させることを特徴とする着装シミュレーション方法。
In a program executed by a computer in order to simulate a state in which a model is three-dimensionally wearing a knit garment design,
In the computer,
Creating a transparent 3D image that simulates a state in which the model is worn with data in which a part having a predetermined shape that does not exist in the design is added to a specific part of the design ;
When the specific part of the design is changed, at least for the design change part, creating an image of the knit garment before the model is worn ;
An image of knit garment created, step of mapping on the 3D image, wearing simulation method characterized by executing the city.
JP2007319658A 2007-12-11 2007-12-11 Dressing simulation device, simulation method, and simulation program Expired - Fee Related JP5010450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007319658A JP5010450B2 (en) 2007-12-11 2007-12-11 Dressing simulation device, simulation method, and simulation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007319658A JP5010450B2 (en) 2007-12-11 2007-12-11 Dressing simulation device, simulation method, and simulation program

Publications (2)

Publication Number Publication Date
JP2009145959A JP2009145959A (en) 2009-07-02
JP5010450B2 true JP5010450B2 (en) 2012-08-29

Family

ID=40916535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007319658A Expired - Fee Related JP5010450B2 (en) 2007-12-11 2007-12-11 Dressing simulation device, simulation method, and simulation program

Country Status (1)

Country Link
JP (1) JP5010450B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102083504B1 (en) * 2018-06-22 2020-03-02 주식회사 지이모션 Method and computer program for 3d modeling of clothing considering environmental factors

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242683A (en) * 1999-02-23 2000-09-08 Fujitsu Ltd Method and device for generating shape data of body, and storage medium
JP2002056405A (en) * 2000-08-11 2002-02-22 Shima Seiki Mfg Ltd Texture mapping processor

Also Published As

Publication number Publication date
JP2009145959A (en) 2009-07-02

Similar Documents

Publication Publication Date Title
JP4966003B2 (en) Fabric pattern creation device, creation method, creation program
CN111291431B (en) Method for producing three-dimensional fully-formed knitted paper pattern
US11145098B2 (en) Method and apparatus of simulating apparel reflecting binding
KR20170132840A (en) Generation of 3D fashion objects by drawing in virtual reality environment
CN107958488A (en) The interactive editing of clothing cutting plate and sewing method and device
JP5431173B2 (en) Dressing simulation device and simulation program
US20210056754A1 (en) Generating clothing patterns of garment using bounding volumes of body parts
Wu et al. Wearable 3D machine knitting: automatic generation of shaped knit Sheets to cover real-world objects
KR102033161B1 (en) method for transferring garment draping between avatars
KR102332069B1 (en) Methode and apparatus of grading clothing including subsidiiary elements
CN112395787A (en) Method and device for grading garments comprising auxiliary material
JP5161229B2 (en) Dressing simulation device, simulation method, and simulation program
US10249100B2 (en) Method and system for progressive drape update on avatar morph for virtual fitting
JP5010603B2 (en) Wearing simulation apparatus, method and program thereof
JP5010450B2 (en) Dressing simulation device, simulation method, and simulation program
KR20160128131A (en) Method and Apparatus for generating a sewing line and a seam allowance
JP5161213B2 (en) Knitwear simulation method and apparatus and storage medium therefor
JP2014219754A (en) Clothing design device
EP2164049B1 (en) Knitwear folding simulation apparatus, simulation method, and storage medium
CN101501690B (en) Device and its method for dressing simulation
JP5543961B2 (en) Dressing simulation apparatus and simulation program
EP2322047B1 (en) Dart designing method, designing device, and designing program
JP5065374B2 (en) Knitting product simulation apparatus and simulation method
CN113591166A (en) Garment design process with 3D CAD tools
KR20230112570A (en) Method and devices for creating pattern simulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120601

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees