WO2016105087A1 - 신체 데이터와 의류 데이터를 조합한 3d 합성 이미지 생성 방법 및 시스템{method and system for 3d manipulated image combined physical data and clothing data} - Google Patents

신체 데이터와 의류 데이터를 조합한 3d 합성 이미지 생성 방법 및 시스템{method and system for 3d manipulated image combined physical data and clothing data} Download PDF

Info

Publication number
WO2016105087A1
WO2016105087A1 PCT/KR2015/014104 KR2015014104W WO2016105087A1 WO 2016105087 A1 WO2016105087 A1 WO 2016105087A1 KR 2015014104 W KR2015014104 W KR 2015014104W WO 2016105087 A1 WO2016105087 A1 WO 2016105087A1
Authority
WO
WIPO (PCT)
Prior art keywords
clothing
point group
user
group data
data
Prior art date
Application number
PCT/KR2015/014104
Other languages
English (en)
French (fr)
Inventor
장석준
Original Assignee
장석준
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 장석준 filed Critical 장석준
Priority to CN201580069744.1A priority Critical patent/CN107111897A/zh
Priority to US15/537,937 priority patent/US20170372504A1/en
Publication of WO2016105087A1 publication Critical patent/WO2016105087A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Definitions

  • the present invention relates to a method and system for generating 3D composite images combining body data and clothing data.
  • the fashion product In the case of a fashion product, the fashion product often receives a different feeling from the image when the product that looked good in the image is actually received, which causes the product to be returned or returned, resulting in a timely response to the mall operator, product producer, and buyer. There is a problem that causes financial damage.
  • the fashion information providing method through the Internet provides a coordination service that displays a database of user information, synthesizes a product and a figure, or creates a virtual model input by a user, thereby providing image data on clothing products such as clothes, glasses, shoes, and hats.
  • a coordination service that displays a database of user information, synthesizes a product and a figure, or creates a virtual model input by a user, thereby providing image data on clothing products such as clothes, glasses, shoes, and hats.
  • Cody solution by pre-coating the product of your choice.
  • the coordination service on the Internet uses a virtual model in the cyber space rather than the real one, when the user actually wears fashion products such as clothing and hats, the overall harmony with his taste, physical characteristics, skin, and hair color could not be confirmed correctly and accordingly, after the purchase of the product, it was frequently dissatisfied with the return of the product.
  • the problem to be solved by the present invention is to propose a method for generating a 3D composite image using the unique information of the fabric fabric of the garment in addition to the clothing scan information scanning the garment.
  • Another problem to be solved by the present invention is to generate a 3D composite image using clothing point group data or mesh data having a smaller data volume than the scan data scanned clothing, and synthesize the scan data to the composite image (color) In suggesting a way to express.
  • Another problem to be solved by the present invention is to propose a method for generating a 3D composite image using the clothing point group data that can be converted according to the user's body point group data.
  • Another problem to be solved by the present invention is to propose a method for generating a 3D composite image using clothing point group data that varies depending on the number or thickness of clothing worn on the user's body.
  • a method of generating a 3D composite image by combining clothing-scanned data with data scanned from a user's body includes body cloud data representing a user's body and clothing cloud data representing a garment, Adjusting the distance between the clothing cloud data by combining the unique information of the fabric constituting the garment and the unique information of the garment, and generating 3D composite data of the user's body and the garment, from the 3D composite data Generating contours and combining colors to generate a 3D composite image.
  • the 3D composite image generating method may further include generating user point group data indicating the appearance of the user's body, and generating clothing point group data indicating the appearance of the clothing, wherein the body cloud data and the The clothing cloud data may consist of point cloud data.
  • the 3D composite image generating method may further include generating user mesh data representing an external appearance of the user's body, and generating clothing mesh data representing the external appearance of the clothing, wherein the body cloud data and the body are generated.
  • Clothing cloud data may be made of mesh data.
  • the generating of the user point group data may generate the user point group data by scanning the body of the user.
  • the clothing point group data may be generated by scanning the clothing.
  • the clothing point group data may be generated from the input 3D image file.
  • the adjusting of the distance between the clothing cloud data may include setting a plurality of reference points in the clothing point group data, adjusting a distance between the reference points, and a distance between the point group data from the reference point. It may include a detailed interval adjusting step of adjusting.
  • the step of adjusting the spacing may include calculating a volume of parts of the user's body, calculating a stress applied to each part of the garment, and calculating an expandable distance according to the characteristics of the fabric. Can be.
  • the adjusting of the distance between the clothing cloud data may include setting a moving direction of the clothing point group data.
  • the adjusting of the distance between the clothing cloud data may include extracting a plurality of inflection points contacting the body from the clothing point group data and calculating a shape change of the clothing point group data at the inflection point.
  • the unique information of the fabric the type of fiber, elasticity, the thickness of the fabric, the weight per unit area of the fabric, breathability, tensile strength, tear strength, wear strength, heat resistance, moisture mobility, stiffness, drape ( drapability, peeling, bagability, strength of the yarn, spinning properties, uniformity of the yarn, bending and bending properties, and filling properties.
  • the generating of the 3D composite image may include synthesizing first garment point group data representing the appearance of the first garment to the point group data of the user, and after synthesizing the first garment point group data, the appearance of the second garment. And synthesizing second clothing point group data indicating a size of the garment corresponding to the second clothing point group data according to the size of the garment corresponding to the first clothing point group data and the thickness of the first garment. Can be.
  • the 3D composite image generating method may further include rotating the 3D composite image at a predetermined rotation speed after generating the 3D composite image.
  • the 3D composite image is synthesized to the point group data of the user.
  • the movement of the garment constituting the 3D composite image may be expressed according to the unique information of the garment corresponding to the collected clothing point group data.
  • the 3D composite image generation method further comprises the step of receiving the unique information of the user, the unique information of the user may be made of at least one of the user's age, gender, hair color, weight.
  • the clothes point group corresponding to the two clothes selected according to the unique information of the clothes Data may be sequentially synthesized with the user point group data.
  • a 3D composite image generation system generates user point group data representing the appearance of a body from data scanned by a user's body, and transmits the generated user point group data and the unique information of the user.
  • a system operator server for generating a 3D composite image of the user's body and the garment by combining the user point group data, the clothing point group data, the unique information of the fabric constituting the garment, and the unique information of the garment.
  • the system operator server may include a clothing point group data generation unit configured to generate the clothing point group data representing the appearance of the clothing from the data scanned for the clothing.
  • the system operator server may further include a reference point setting unit for setting a plurality of reference points in the clothing point group data, a reference point adjusting unit for adjusting the distance between the reference points, and a point group for adjusting the distance between the point group data from the reference point. It may include a data detail control unit.
  • the point group data detail adjusting unit may include a body analyzing unit calculating a volume of parts of a user's body, a stress calculating unit calculating a stress applied to each part of the garment, and an elastic calculating unit calculating an expandable distance of the garment. can do.
  • the system operator server may further include a shape control unit, and the shape control unit may extract a plurality of inflection points contacting the body from the clothing point group data and calculate a shape change of the clothing point group data at the inflection point.
  • the method and system for generating 3D composite image by combining body information and clothing information generates a 3D composite image by combining scan data of a user's body, scan data of a garment, and unique information of the garment. It is possible to generate 3D composite images reflecting the unique characteristics of.
  • the present invention generates a 3D composite image by reflecting the number or thickness of the clothing worn on the scan data (or user point group data) scanning the user's body.
  • the present invention can generate an image having the same effect as when the actual user wears the clothing by generating the 3D composite image using the unique information of the clothing.
  • the system operator server may conveniently manage the unique information about the clothing when the information about the clothing is provided to the clothing manufacturer.
  • FIG. 1 is a view schematically showing a configuration for generating a 3D composite image according to an embodiment of the present invention.
  • FIG. 2 illustrates a configuration of a user scanner according to an embodiment of the present invention.
  • FIG. 3 is a block diagram showing the configuration of a system operator server according to an embodiment of the present invention.
  • Figure 4 shows an example in which a garment made of a fabric having a different elasticity according to an embodiment of the present invention synthesized on the body.
  • FIG. 5 illustrates an example of modifying clothing point group data by reflecting body point group data according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a 3D composite image generation method according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a process of adjusting a distance between clothing cloud data according to an embodiment of the present invention.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • FIG. 1 is a view schematically showing a configuration for generating a 3D composite image according to an embodiment of the present invention.
  • a configuration of generating a 3D composite image will be described with reference to FIG. 1.
  • a configuration for generating a 3D composite image includes a system operator server 100 and a user scanner 200.
  • the system operator server 100 may include a garment data generator 110 and a 3D composite image generator ( 120, a control unit 30, a storage server 150, and an input unit 140.
  • the user scanner 200 includes a 3D scanner 205, a communication unit 220, a control unit 225, an input unit 210, and a storage unit 2015.
  • other configuration may be included in the configuration for generating a 3D composite image proposed in the present invention.
  • the system operator server 100 scans the garment using a 3D scanner.
  • the system operator server 100 generates scanning data about the scanned clothing.
  • the system operator server 100 generates clothing cloud data using the generated scanning data.
  • the present invention is not limited thereto, and the system operator server 100 may generate point group data on the clothing design by using a device other than the 3D scanner. Accordingly, the system operator server 100 may generate clothing point group data from the 3D image file provided from the garment manufacturer.
  • clothing cloud data data capable of generating a form of clothing
  • the clothing cloud data may be not only made of the point cloud data but also made of mesh data.
  • the data processing speed may be significantly increased compared to mesh data or shape data due to the small capacity.
  • the system operator server 100 generates clothing point group data or clothing mesh data capable of generating a form of clothing. To this end, sensors are attached to clothing at regular intervals, and the attached sensors can measure relative distances between the sensors through communication between the sensors. The system operator server 100 generates clothing point group data using the relative distance information received from the sensor. However, the present invention is not limited thereto, and the system operator server 100 may generate clothing point group data in various ways other than the above-described method.
  • the system operator server 100 receives data on clothing and fabric through an input unit. That is, the input unit receives unique information about clothing and fabric. This will be described later.
  • the system operator server 100 of the present invention generates a 3D composite image using not only data on the shape or color of the garment but also unique information on the fabric from which the garment is manufactured.
  • the user scanner 200 scans the whole body of the user.
  • the user scanner 200 generates user point group data or user mesh data that can generate the user's whole body shape using the generated scan data of the whole body of the user.
  • the user scanner 200 receives the unique information of the user if necessary.
  • the unique information of the user includes the user's name, age (age), height, weight, gender, hair color, hair type, and the like.
  • the user scanner 200 provides the user point group data and the user unique information to the system operator server 100.
  • the system operator server 100 generates a 3D composite image by synthesizing user point group data, user unique information, and stored clothing point group data provided from the user scanner 200.
  • the system operator server 100 uses the unique information about the fabric in generating the 3D composite image. That is, even if the user point group data and the clothing point group data are the same, if the unique information of the input fabric is different, the generated 3D composite image also generates another image.
  • FIG. 1 each configuration shown in FIG. 1 will be described in detail.
  • FIG. 2 illustrates a configuration of a user scanner according to an embodiment of the present invention.
  • the configuration of a user scanner according to an exemplary embodiment of the present invention will be described in detail with reference to FIG. 2.
  • the user scanner includes a 3D scanner, an input unit, a storage unit, a communication unit, and a control unit.
  • a 3D scanner for example, a 3D scanner, an input unit, a storage unit, a communication unit, and a control unit.
  • other configuration may be included in the user scanner proposed in the present invention.
  • the 3D scanner 205 scans the whole body of the user.
  • the 3D scanner 205 provides the controller 225 with information about the whole body of the scanned user.
  • the user scanner may generate user cloud data using a sensor in addition to the 3D scanner.
  • the cloud data may include point cloud data or mesh data.
  • the input unit 210 receives user unique information.
  • the user unique information includes the user's age, gender, height, weight, name, and the like. Of course, other information other than the above-described information may be included in the user unique information.
  • the controller 225 generates user point group data using scan data provided from the 3D scanner 205. That is, user point group data having a smaller data size than scan data is generated. Since the user point group data is data that can recognize the shape of the user, the data size is smaller than that of the scan data.
  • the controller 225 divides the measured cross distances between the sensors provided from the sensors into vertical and horizontal components, calculates the body size of the user by combining the positional relationship between the vertical and horizontal components, and calculates the user's body. Create user point group data using the dimensions.
  • the control unit 225 is a mesh based on the diagonal distance, which is the measurement distance from the sensor located at the outer intersection, which is the eight intersections located at the outer sides of the four adjacent meshes, to the central intersection, which is the intersection of the four meshes.
  • the protrusion distance which is the distance protruding from the forming plane, is calculated.
  • the controller 225 increases and outputs the measured body size by a predetermined amount when the protrusion distance is equal to or greater than a predetermined threshold value.
  • the controller 225 increases the measured body size by a predetermined number and outputs the measured body size when the protrusion distance progresses in the horizontal and vertical directions continuously.
  • the sensor preferably uses an ultrasonic distance sensor.
  • the storage unit 215 stores the received user unique information, scan data, and user point group data.
  • the storage unit 215 also stores data necessary for driving the user scanner.
  • the communication unit 220 communicates with an external system operator server 100.
  • the communication unit 220 transmits data about the user's whole body scanned by the 3D scanner 205 to an external system operator server 100.
  • the communication unit 220 may transmit the user point group data in addition to the scan data.
  • the communication unit 220 transmits user unique information to an external system operator server 100.
  • the communication unit 220 receives a 3D composite image from an external system operator server 100. In addition, the communication unit 220 transmits various information to the system operator server 100.
  • the input unit 210 is included in the user scanner 200, but is not limited thereto. That is, the input unit 210 may be included in a separate device in addition to the user scanner.
  • the input unit 210 may select a plurality of clothes displayed on the display unit (not shown). That is, the display unit displays clothing to be synthesized with the body of the user scanned by the 3D scanner. To this end, the display unit may display the clothing divided into a plurality of groups. That is, the clothing may be divided into upper and lower garments, or may be displayed in various forms such as underwear and coat.
  • the input unit 210 selects clothes to be combined with a user's body among a plurality of clothes displayed on the display unit.
  • the display unit may display detailed information about the clothing selected by the user.
  • the clothing (or clothing information) selected by the input unit 210 is transmitted to the external system operator server 100 through the communication unit 220.
  • information about the selected clothes is transmitted to the system operator server 100, or when all clothes are selected, the selected clothes are selected.
  • Information may be transmitted to the system operator server 100. As such, the user may transmit information about the selected clothing to the system operator server in various ways as needed.
  • FIG. 3 is a block diagram showing the configuration of a system operator server according to an embodiment of the present invention.
  • the configuration of a system operator server according to an embodiment of the present invention will be described in detail with reference to FIG. 3.
  • the system operator server 100 includes a garment data generator 110, a 3D composite image generator 120, a controller 130, an input unit 140, and a storage server 150.
  • a garment data generator 110 the system operator server 100 includes a garment data generator 110, a 3D composite image generator 120, a controller 130, an input unit 140, and a storage server 150.
  • a storage server 150 the system operator server 100 includes a storage server 150.
  • other configuration in addition to the above-described configuration may be included in the system operator server proposed in the present invention.
  • the clothing data generator 110 may generate clothing cloud data by scanning clothes with a scanner.
  • the clothing data generator 110 may generate point group data or mesh data.
  • the clothing data generation unit 110 may generate point group data from the 3D image.
  • the storage server 150 stores the information about the clothing scanned by the clothing data generator 110.
  • the storage server 150 stores clothing point group data which is point group data on the scanned clothing.
  • the storage server 150 stores a variety of information. That is, the storage server 150 stores the unique information in the fabric for manufacturing the clothing input through the input unit 140. Unique information on the fabric will be described later.
  • the input unit 140 receives the unique information about the fabric constituting the garment and the unique information of the garment.
  • the unique information about the fabric fiber type, elasticity, fabric thickness, weight per unit area of the fabric, breathability, tensile strength, tear strength, wear strength, heat resistance, moisture mobility, stiffness, drape, peeling , Bagness, strength of the yarn, spinning properties, uniformity of the yarn, bending and bending properties, and fillability.
  • the unique information of the clothing may include the type, use, wearing part, and the like of the clothing.
  • the input unit 140 receives various information about the clothing.
  • the input unit 140 may receive a variety of information, such as price, country of origin, manufacturing date for the clothing.
  • the controller 130 controls the operation of the system operator server 100.
  • the controller 130 may include a reference point setting unit 131, a reference point adjusting unit 132, a point group data detail adjusting unit 133, a direction calculating unit 134, and a shape control unit 135.
  • the reference point setting unit 131 sets a plurality of reference points among the clothing point group data.
  • the reference point may be set at predetermined intervals, or may be set at a portion that becomes a node according to the type of clothing.
  • the reference point controller 132 calculates the distance between the reference points and moves the reference point.
  • the reference point controller 132 calculates the distance between the reference points by a combination of the user point group data and the body point group data and moves the reference point according to the calculated distance.
  • the point group data detail adjusting unit 133 adjusts the distance between each point group data from the reference point.
  • the point group data detail adjusting unit 133 not only adjusts the distance between each point group data from the reference point but also adjusts the distance between the point group data.
  • the point group data detail adjusting unit 133 includes a body analyzer, a clothing analyzer, a stress calculator, and an elastic calculator.
  • the body analyzer calculates volumes of parts of the user's body.
  • the body analyzer divides the user's body into parts and analyzes the volume. For example, the body analyzer may analyze the volume by dividing the user's body by an arm, a chest, a shoulder, or a belly.
  • the stress calculator calculates the stress applied to each part of the garment.
  • the stress calculator calculates a space that can be accommodated in the garment, thereby calculating and storing the stress applied to each part of the garment when the body is inserted into the garment.
  • the stress calculator may calculate a stress applied to each point group data.
  • the elastic calculation unit calculates an expandable distance for each part of the garment in consideration of the unique information of the fabric and the shape of the garment.
  • the direction calculating unit 134 calculates the moving direction of the clothing point group data in consideration of the stress applied to the clothing and the shape of the clothing to set the moving direction of the clothing point group data.
  • the direction of movement of the clothing point group data may be determined by stress and elasticity.
  • the shape controller 135 extracts a plurality of inflection points contacting the body from the clothing point group data and calculates a shape change of the clothing point group data at the inflection point. For example, there is no stress acting on the garment by the body at the part in contact with the shoulder, but a change occurs in the form of the garment because gravity is squeezed down.
  • the shape control unit 135 compares the length of the garment with the length of the body. To calculate the shape change of the garment.
  • the clothing point group data since the clothing point group data has a smaller data volume than the scan data of the clothing, the clothing point group data may be used more efficiently than using the scan data. That is, the controller 130 may generate data for clothes of different shapes using the clothing point group data having a relatively small data capacity.
  • the 3D composite image generator 120 generates a 3D composite image by using user point group data, clothing point group data, and unique information about clothes according to a control command of the controller 130.
  • the 3D composite image generator 120 generates 3D composite data obtained by synthesizing a user's body and clothing, generates an outline from the 3D composite data, and combines colors to generate a 3D composite image.
  • the clothing point group data obtained by converting the scanned data merely represents the shape of the garment, and color, material, and the like of the garment cannot be expressed. Therefore, the 3D composite image generation unit 120 generates the 3D composite image by reflecting the scan data in which the color or material of the garment is expressed in the clothing point group data.
  • the reason why the scan data is separated and 3D synthesized is that the scan data has a larger capacity than the point group data. Thus, when the fitting process is performed using the small point group data, the clothing can be quickly fitted to the body.
  • the storage server 150 digitizes and stores unique information about the fabric and the clothing.
  • Storage server 150 of the present invention stores the unique information for the various fabrics, and generates a 3D composite image using the stored unique information.
  • the existing 3D composite image could not exhibit the unique characteristics with the clothing by simply synthesizing the clothing on the body, but when the 3D composite image is generated, the present invention reflects the unique characteristics of the clothing and the fabric to generate the 3D composite image. Even clothes having colors may generate 3D composite images having different feelings according to the unique characteristics of the clothes. That is, in the case of a relatively thin garment, the weight of the garment is lighter with respect to a relatively thick garment.
  • the 3D composite image can be rotated at a constant speed so that the user knows the feeling.
  • relatively light clothing has more wind movement (shake) than the relatively heavy clothing.
  • the actual user may have a state that is relatively close to the case where the user wears the clothing.
  • the 3D composite image generator 120 generates a 3D composite image by using elastic information of the fabric. That is, even if the clothing having the same shape is different from the 3D composite image generated according to the elasticity of the fabric. That is, in the case of clothing having a high elasticity (that is, excellent elasticity) of clothing, the clothing adheres to all sides of the body, while in the case of clothing having a low elasticity of the fabric (that is, of low elasticity), the clothing is only part of the body. The body is in close contact. Specifically, in the case of underwear, the garment is manufactured from a fabric having a good elasticity, and when generating a 3D composite image, all sides of the garment are in close contact with the body.
  • the coat is made of a relatively low elastic fabric
  • the present invention generates a 3D composite image by using various characteristics of the fabric for manufacturing the garment.
  • Figure 4 shows an example of synthesizing the garment to the body made of a fabric having a different elasticity according to an embodiment of the present invention. That is, referring to Figure 4, the body is wearing two garments, in particular, the clothing located on the inside shows an example in which the clothing made of a relatively high elastic fabric synthesized on the body, the clothing located on the outside An example in which a garment made of a relatively low elastic fabric is synthesized on a body is illustrated.
  • clothing made of a fabric having high elasticity may be in close contact with the body, while clothing made of a fabric having low elasticity may be in close contact with a part of the body.
  • the clothing point group data CP is modified according to the bar point body data BP and the unique information of the clothes and the fabric as shown in FIG. 5 to generate a 3D composite image. That is, it can be seen that the distance between the body point group data BP and the coordinates (point group) constituting the clothing point group data CP is increased by reflecting unique information of the clothing and fabric.
  • the 3D composite data is generated by synthesizing the scan data with the generated 3D composite point group data.
  • FIG. 6 is a flowchart illustrating a 3D composite image generation method according to an embodiment of the present invention.
  • a 3D composite image generation method according to an embodiment of the present invention will be described in detail with reference to FIG. 6.
  • the user cloud data generation step (S100) generates user point group data or user mesh data representing the appearance of the user's body, and the body cloud data may be composed of point group data or mesh data.
  • the generating of the user point group data may generate the user point group data by scanning the body of the user using the user scanner 200.
  • the user cloud data generation step (S100) generates user point group data or user mesh data that can generate the user's whole body shape using the scan data of the user's whole body generated using the user scanner 200.
  • the user cloud data generation step (S100) is based on a diagonal distance, which is a measurement distance from a sensor located at an outer intersection, which is eight intersections located at the outer sides of four adjacent meshes, to a central intersection, which is an intersection of the four meshes. Calculate the protrusion distance, which is the distance at which the intersection protrudes from the plane that the mesh forms.
  • the user cloud data generation step (S100) increases and outputs the measured body size by a predetermined amount when the protrusion distance is greater than or equal to a predetermined threshold value.
  • the measured body size is increased by a predetermined number and then output.
  • the user cloud data generation step (S100) stores the received user specific information, the scan data and the user point group data, and transmits the data about the user's whole body scanned by the 3D scanner 205 to the external system operator server 100. .
  • the 3D composite image generating method may further include a step of receiving a user's unique information.
  • the user's unique information may include a user's name, age (age), height, weight, gender, hair color, hair type, and the like. It may include.
  • Generating clothing cloud data (S200) generates clothing cloud data representing the appearance of the body of the garment, the clothing cloud data may be made of point group data or mesh data.
  • scanning data for the clothing may be generated by scanning the clothing with a scanner, and the clothing cloud data is generated using the generated scanning data.
  • the present invention is not limited thereto, and the system operator server 100 may generate point group data on the clothing design by using a device other than the 3D scanner. Accordingly, the system operator server 100 may generate clothing point group data from the 3D image file provided from the garment manufacturer.
  • clothing cloud data data capable of generating a form of clothing
  • the clothing cloud data may be not only made of the point cloud data but also made of mesh data.
  • the data processing speed may be significantly increased compared to mesh data or shape data due to the small capacity.
  • Generating cloud data of the garment (S200) stores the information about the clothing scanned by the clothing data generation unit 110, and stores the clothing point group data that is the point group data for the scanned clothing.
  • Adjusting the distance between the clothing cloud data is a combination of the body cloud data representing the user's body and the clothing cloud data representing the clothing, the unique information of the fabric constituting the clothing and the unique information of the clothing by combining the clothing cloud data Adjust the distance between.
  • the unique information of the fabric includes fiber type, elasticity, thickness of fabric, weight per unit area of fabric, breathability of fabric, tensile strength, tear strength, wear strength, heat resistance, moisture mobility, stiffness, drape, peeling, bag Properties, yarn strength, spinning properties, yarn uniformity, flexural and flexural properties, and fillability.
  • the unique information of the clothing may include the type, use, wearing part, and the like of the clothing.
  • the step S300 of adjusting the distance between the clothing cloud data may include setting a reference point S301, adjusting a distance between the reference points S302, and adjusting a detailed interval. (S303), setting the movement direction (S304), and calculating the shape change (S305).
  • a plurality of reference points are set among the clothing point group data.
  • the reference point may be set at predetermined intervals, or may be set at a portion that becomes a node according to the type of clothing.
  • Adjusting the distance between the reference point calculates the distance between the reference point and moves the reference point. Adjusting the distance between the reference point (S302) calculates the distance between the reference point by the combination of the user point group data and the body point group data and moves the reference point according to the calculated distance.
  • the detailed interval adjusting step S303 adjusts the distance between each point group data from the reference point.
  • the detailed interval adjusting step S303 adjusts the distance between the point group data as well as the distance between the point group data from the reference point.
  • the detailed interval adjusting step S303 may include calculating a volume of parts of the user's body, calculating a stress applied to each part of the garment, and calculating an expandable distance according to the characteristics of the fabric.
  • the calculating of the volume of parts of the user's body may be performed by analyzing the volume by dividing the user's body into each part.
  • the volume may be analyzed by dividing the user's body by an arm, a chest, a shoulder, or a belly.
  • the step of calculating the stress calculates the stress applied to each part of the garment.
  • the step of calculating the stress calculates the space acceptable to the garment, thereby calculating and storing the stress applied to each part of the garment when the body is inserted into the garment.
  • Computing the stress may calculate the stress applied to each point group data.
  • the step of calculating the expandable distance according to the characteristics of the fabric calculates the expandable distance for each part of the garment in consideration of the unique information of the fabric and the shape of the garment.
  • the moving direction of the clothing point group data is calculated in consideration of the stress applied to the clothing, the type of the clothing, and the like, to set the moving direction of the clothing point group data.
  • the direction of movement of the clothing point group data may be determined by stress and elasticity.
  • the shape change calculation step (S305) extracts a plurality of inflection points in contact with the body from the clothing point group data and calculates the shape change of the clothing point group data at the inflection point. For example, the body does not stress the clothing at the part where it is in contact with the shoulder, but the clothing is struck down by gravity, so a change occurs in the shape of the garment. Compute the change in the shape of the garment by comparing the lengths.
  • Generating 3D composite data (S400) generates 3D composite data obtained by combining a user's body and clothing.
  • Generating the 3D composite image (S500) generates contours from the 3D composite data and combines the colors to generate the 3D composite image.
  • the generating of the 3D composite image may include synthesizing the first garment point group data representing the appearance of the first garment to the point cloud data of the user, and second garment representing the appearance of the second garment after synthesizing the first garment point group data. Synthesizing point cloud data.
  • the size of the garment corresponding to the second garment point group data may be calculated according to the size of the garment corresponding to the first garment point group data and the thickness of the first garment.
  • the generating of the 3D composite image may include selecting at least two pieces of clothing corresponding to the pieces of clothing point group data to be synthesized with the user point group data, and sequentially storing clothes point group data corresponding to the two pieces of clothing selected according to the unique information of the clothes. Can be automatically synthesized with user point cloud data.
  • the 3D composite image generating method may further include rotating the 3D composite image at a predetermined rotation speed after generating the 3D composite image.
  • the movement of the clothes constituting the 3D composite image may be expressed according to the unique information of the clothes corresponding to the clothes point group data synthesized in the point group data of the user.
  • the 3D composite image wearing clothing may rotate the image by dragging a touch screen of a mouse or a user terminal.
  • the garment selected using the unique information of the garment is automatically synthesized at a corresponding position among the user point group data.
  • the 3D composite image may be produced in various ways. For example, when clothes are selected and worn on a user's point cloud data, the first selected clothes are automatically combined and synthesized. Thereafter, when the second selected clothing is worn, the selected second clothing is synthesized to the user point group data in consideration of the increased thickness by wearing the first selected clothes on the user point group data.
  • the 3D composite image may be implemented in such a manner that the selected clothing is externally worn on the previously selected clothing. By applying this method, the same effect as when wearing real clothes can be realized.
  • the clothing point group data since the size of the clothing worn outside the previously selected clothing is worn in consideration of the thickness of the previously selected clothing, the clothing point group data may be changed in various forms as described above.
  • the present invention generates 3D images using the unique characteristics of the clothes and the fabric.
  • the clothing may be worn on the user point cloud data by dragging. If the clothing is clicked by a mouse if necessary, the clothing may be automatically synthesized at a corresponding position among the user point cloud data using the unique information of the clothing.
  • the 3D composite image generation method may include storing the generated 3D composite image.
  • the 3D composite image may be stored in a separate storage space. That is, a plurality of 3D composite images may be stored in a storage space and then loaded or provided to a third party, if necessary.
  • the present invention may request that the selected 3D composite image be sent to a clothing manufacturer to produce the selected clothing.
  • the user may synthesize the synthesized 3D composite image in a separate storage space, and if necessary, the 3D composite image stored in the storage space of another person may be loaded with the permission of the other person.
  • the clothing point group data is extracted from the registered clothing image of another person, and the extracted clothing point group data is synthesized with the user point group data to generate a composite image.
  • a synthetic image is generated by reflecting the unique information of the clothing.
  • the clothing point group data may be modified based on the user point group data. That is, when the user desires to manufacture the garment which is partially modified from the ready-made clothes, the clothing point group data is modified based on the user point group data. As described above, in the case of partially modifying the clothing point group data, it is preferable to use the clothing point group data having a relatively smaller data volume than using the scan data. In detail, the clothing point group data is partially modified based on the user point group data to generate a 3D composite image.
  • control unit 131 reference point setting unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 신체 정보와 의류 정보를 조합한 3D 합성 이미지 생성 방법 및 시스템에 관한 것으로, 더욱 상세하게는 사용자의 신체 정보와 의류를 스캔한 데이터 및 의류를 제조한 원단의 고유정보를 조합한 3D 합성 이미지 생성 방법 및 시스템에 관한 것이다. 이를 위해 본 발명의 일 측면에 따른 사용자의 신체를 스캔한 데이터에 의류를 스캔한 데이터를 조합하여 3D 합성 이미지를 생성하는 방법은, 사용자의 신체를 나타내는 신체 클라우드 데이터와 의류를 나타내는 의류 클라우드 데이터, 의류를 구성하는 원단의 고유정보 및 상기 의류의 고유정보를 조합하여 의류 클라우드 데이터 사이의 거리를 조절하는 단계, 및 사용자의 신체와 의류가 합성된 3D 합성 데이터를 생성하는 단계, 상기 3D 합성 데이터로부터 윤곽선을 생성하고 색상을 결합하여 3D 합성 이미지를 생성하는 단계를 포함한다.

Description

[규칙 제26조에 의한 보정 25.02.2016] 신체 데이터와 의류 데이터를 조합한 3D 합성 이미지 생성 방법 및 시스템
본 발명은 신체 데이터와 의류 데이터를 조합한 3D 합성 이미지 생성 방법 및 시스템에 관한 것이다.
개성을 중시하는 현대인은 현재 유행하는 패션 및 자신에게 맞는 패션을 찾기 위한 정보 획득 수단으로 인터넷을 사용하는 것이 일반화 되었다. 이러한 흐름으로 인해 인터넷에서는 다양한 쇼핑몰들이 생겨났으며, 이 중에서 가장 각광받는 분야 중의 하나가 의류 및 이를 포함한 패션 상품몰이다. 인터넷을 이용하여 패션 상품을 구매하는 사용자들은 인터넷이 제공하는 시간적, 공간적 자유를 십분 활용하여 본인이 원하는 시간에 육체적인 노력을 들이지 않고 원하는 상품을 구매하여 이용한다.
사용자가 패션 상품몰의 웹페이지에서 제공되는 이미지를 확인하고 게시된 상품의 이미지에 관심이 있는 경우 이를 선택하여 상세한 정보를 확인하고 이를 통해 구매가 이루어지게 된다.
이러한 구매 방식은 패션 상품의 경우, 이미지에서 좋게 보이던 상품이 실제로 수령했을 때 이미지와 다른 느낌을 받게 되는 경우가 빈번하고 이로 인해 제품의 반송, 반품 등이 발생되어 몰 운영자, 제품 생산자 및 구매자에게 시간적, 금전적 손해를 가져오게 되는 문제점이 있다.
이러한 문제점을 해결하기 위해 고안된 것이 인터넷을 통한 패션 정보 제공 방법이 있다. 인터넷을 통한 패션 정보 제공 방법은 사용자 정보를 데이터베이스화하고 상품과 체형을 합성하여 보여주는 코디 서비스를 제공하거나 사용자가 입력한 가상의 모델을 만들어 의류 상품 즉, 의상, 안경, 신발, 모자 등에 대한 이미지 데이터에서 자신이 선택한 상품을 미리 입혀봄으로써 코디 솔루션을 제공하는 방법이 있다.
그러나 인터넷 상의 코디 서비스 제공은 실물이 아닌 사이버 공간 상에서 가상의 모델을 이용하기 때문에 자신의 몸에 실제로 의류, 모자 등의 패션 제품을 걸쳤을 때 자신의 취향, 신체 특성, 피부, 헤어 색깔와의 전체적인 조화가 정확하게 맞는지 확인할 수 없으며 이에 따라 제품의 구입 후 제품에 만족하지 못하여 반품하는 사례가 빈번했다.
게다가 소비자는 오프라인의 백화점이나 쇼핑몰을 찾아가서 의류를 몸에 걸쳐본 후 현장에서 자신에게 어울리는지 판단하지 못하고 구입한 후 집에 와서 입어 보거나 다른 사람들의 의견을 들어 보면 자신에게 어울리지 않는다고 판단하는 경우도 많아서 의류를 반품 또는 교환하는 경우도 자주 발생한다.
소비자가 오프라인에서 입어보고 패션 제품을 사서도 반품하는 경우가 발생하는데 인터넷 상에서 구입한 패션 제품의 경우 소비자의 제품 만족도가 훨씬 떨어질 수밖에 없는 것이 당연한 결과이다.
이러한 문제점으로 인하여 아직까지 온라인 상에서의 쇼핑 제공 서비스가 소비자 입장에서 신뢰도와 만족도가 떨어질 수밖에 없다.
[선행기술문헌]
[특허문헌]
한국공개특허 제2010-0048733호
한국공개특허 제2012-019410호
본 발명이 해결하려는 과제는 의류를 스캔한 의류 스캔 정보 이외에 의류의 제조한 원단의 고유정보를 이용한 3D 합성 이미지를 생성하는 방안을 제안함에 있다.
본 발명이 해결하려는 다른 과제는 의류를 스캔한 스캔 데이터보다 상대적으로 데이터 용량이 작은 의류 점군 데이터, 또는 메쉬 데이터를 이용하여 3D 합성 이미지를 생성하고 이 합성이미지에 스캔데이터를 합성하여 색감(컬러)를 표현하는 방안을 제안함에 있다.
본 발명이 해결하려는 또 다른 과제는 사용자의 신체 점군 데이터에 따라 변환이 가능한 의류 점군 데이터를 이용하여 3D 합성 이미지를 생성하는 방안을 제안함에 있다.
본 발명이 해결하려는 또 다른 과제는 사용자의 신체에 착용되는 의류의 개수 또는 두께에 따라 가변되는 의류 점군 데이터를 이용하여 3D 합성 이미지를 생성하는 방안을 제안함에 있다.
이를 위해 본 발명의 일 측면에 따른 사용자의 신체를 스캔한 데이터에 의류를 스캔한 데이터를 조합하여 3D 합성 이미지를 생성하는 방법은, 사용자의 신체를 나타내는 신체 클라우드 데이터와 의류를 나타내는 의류 클라우드 데이터, 의류를 구성하는 원단의 고유정보 및 상기 의류의 고유정보를 조합하여 의류 클라우드 데이터 사이의 거리를 조절하는 단계, 및 사용자의 신체와 의류가 합성된 3D 합성 데이터를 생성하는 단계, 상기 3D 합성 데이터로부터 윤곽선을 생성하고 색상을 결합하여 3D 합성 이미지를 생성하는 단계를 포함한다.
또한, 상기 3D 합성 이미지 생성 방법은 상기 사용자의 신체의 외형을 나타내는 사용자 점군 데이터를 생성하는 단계, 및 상기 의류의 외형을 나타내는 의류 점군 데이터를 생성하는 단계를 더 포함하고, 상기 신체 클라우드 데이터와 상기 의류 클라우드 데이터는 점군 데이터로 이루어질 수 있다.
또한, 상기 3D 합성 이미지 생성 방법은 상기 사용자의 신체의 외형을 나타내는 사용자 메쉬 데이터를 생성하는 단계, 및 상기 의류의 외형을 나타내는 의류 메쉬 데이터를 생성하는 단계를 더 포함하고, 상기 신체 클라우드 데이터와 상기 의류 클라우드 데이터는 메쉬 데이터로 이루어질 수 있다.
또한, 상기 사용자 점군 데이터를 생성하는 단계는 사용자의 신체를 스캔하여 사용자 점군 데이터를 생성할 수 있다.
또한, 상기 의류 점군 데이터를 생성하는 단계는 의류를 스캔하여 의류 점군 데이터를 생성할 수 있다.
또한, 상기 의류 점군 데이터를 생성하는 단계는 입력된 의류의 3D 이미지 파일로부터 의류 점군 데이터를 생성할 수 있다.
또한, 상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는, 상기 의류 점군 데이터에 복수개의 기준점을 설정하는 단계와, 상기 기준점들 사이의 거리를 조절하는 단계, 및 상기 기준점으로부터 각 점군 데이터 사이의 거리를 조절하는 세부 간격 조절 단계를 포함할 수 있다.
또한, 상기 세부 간격 조절 단계는, 사용자 신체의 부분들의 부피를 연산하는 단계, 상기 의류의 각 부분에 가해지는 응력을 연산하는 단계, 및 직물의 특성에 따라 확장 가능한 거리를 연산 하는 단계를 포함할 수 있다.
또한, 상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는, 상기 의류 점군 데이터의 이동 방향을 설정하는 단계를 포함할 수 있다.
또한, 상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는, 상기 의류 점군 데이터에서 신체와 맞닿는 복수개의 변곡점을 추출하고 상기 변곡점에서 상기 의류 점군 데이터의 형상 변화를 연산할 수 있다.
또한, 상기 원단의 고유정보는, 섬유의 종류, 탄성, 직물의 굵기, 직물의 단위면적당 무게, 직물의 통기성, 인장강도, 인열강도, 마모강도, 내열성, 수분이동성, 강연도, 드레이프성(drapability), 필링, 가방성, 실의 강도, 방적성, 실의 균제성, 굴곡 및 굽힙 특성, 및 충진성 중 적어도 하나로 이루어질 수 있다.
또한, 상기 3D 합성 이미지를 생성하는 단계는, 상기 사용자의 점군 데이터에 제1 의류의 외형을 나타내는 제1 의류 점군 데이터를 합성하는 단계, 상기 제1 의류 점군 데이터를 합성한 이후 제2 의류의 외형을 나타내는 제2 의류 점군 데이터를 합성하는 단계를 포함하며, 상기 제2 의류 점군 데이터에 대응되는 의류의 사이즈는 상기 제1 의류 점군 데이터에 대응되는 의류의 사이즈와 상기 제1 의류의 두께에 따라 연산될 수 있다.
또한, 3D 합성 이미지 생성 방법은 상기 3D 합성 이미지를 생성한 단계 이후에, 상기 3D 합성 이미지를 설정된 회전 속도로 회전시키는 단계를 더 포함할 수 있으며, 상기 회전시키는 단계에서는 상기 사용자의 점군 데이터에 합성된 의류 점군 데이터에 대응되는 의류의 고유정보에 따라 상기 3D 합성 이미지를 구성하는 의류의 움직임이 표현될 수 있다.
또한, 3D 합성 이미지 생성 방법은 상기 사용자의 고유정보를 입력 받는 단계를 더 포함하며, 상기 사용자의 고유정보는 사용자의 나이, 성별, 모발색, 몸무게 중 적어도 하나로 이루어질 수 있다.
또한, 상기 3D 합성 이미지를 생성하는 단계에서, 상기 사용자 점군 데이터에 합성될 의류 점군 데이터에 대응되는 의류가 적어도 2개 선택되면, 상기 의류의 고유정보에 따라 선택된 상기 2개의 의류에 대응되는 의류 점군 데이터가 순차적으로 상기 사용자 점군 데이터에 합성될 수 있다.
본 발명의 다른 측면에 따른 3D 합성 이미지 생성 시스템은 사용자의 신체를 스캔한 데이터로부터 신체의 외형을 나타내는 사용자 점군 데이터를 생성하며, 생성한 상기 사용자 점군 데이터와 상기 사용자의 고유정보를 전송하는 사용자 스캐너, 상기 사용자 점군 데이터, 의류 점군 데이터, 입력 받은 상기 의류를 구성하는 직물의 고유정보 및 상기 의류의 고유정보를 조합하여 사용자의 신체와 의류가 합성된 3D 합성 이미지를 생성하는 시스템 운영자 서버를 포함한다.
또한, 상기 시스템 운영자 서버는, 의류를 스캔한 데이터로부터 의류의 외형을 나타내는 의류 점군 데이터를 생성하는 의류 점군 데이터 생성부를 포함할 수 있다.
또한, 상기 시스템 운영자 서버는, 의류 점군 데이터에 복수개의 기준점을 설정하는 기준점 설정부와, 상기 기준점들 사이의 거리를 조절하는 기준점 조절부와, 상기 기준점으로부터 각 점군 데이터 사이의 거리를 조절하는 점군 데이터 세부 조절부를 포함할 수 있다.
또한, 상기 점군 데이터 세부 조절부는, 사용자 신체의 부분들의 부피를 연산하는 신체 분석부, 상기 의류의 각 부분에 가해지는 응력을 연산하는 스트레스 연산부, 및 의류의 확장 가능한 거리를 연산하는 탄성 연산부를 포함할 수 있다.
또한, 상기 시스템 운영자 서버는 형상 제어부를 더 포함하고 상기 형상 제어부는 상기 의류 점군 데이터에서 신체와 맞닿는 복수개의 변곡점을 추출하고 상기 변곡점에서 상기 의류 점군 데이터의 형상 변화를 연산할 수 있다.
본 발명에 따른 신체 정보와 의류 정보를 조합한 3D 합성 이미지 생성 방법 및 시스템은 사용자의 신체를 스캔한 스캔 데이터, 의류를 스캔한 스캔 데이터 및 의류의 고유정보를 조합하여 3D 합성 이미지를 생성함으로써 의류의 고유특성을 반영한 3D 합성 이미지를 생성할 수 있다.
또한, 본 발명은 사용자의 신체를 스캔한 스캔 데이터(또는 사용자 점군 데이터)에 착용되는 의류의 개수 또는 두께를 반영하여 3D 합성 이미지를 생성한다. 이와 같이 본 발명은 의류의 고유정보를 이용하여 3D 합성 이미지를 생성함으로써 실제 사용자가 의류를 착용하였을 때와 동일한 효과를 갖는 이미지를 생성하는 것이 가능하다. 또한, 시스템 운영자 서버는 의류에 대한 정보를 의류 제작업체로 제공받는 경우 의류에 대한 고유정보를 편리하게 관리할 수 있다.
또한, 3D 합성 데이터를 고려하여 의류를 스캔한 스캔 데이터를 일부 변형한 데이터를 의류 제작업체로 제공하여 사용자의 맞춤 의류를 제작할 수 있다.
도 1은 본 발명의 일 실시예에 따른 3D 합성 이미지를 생성하는 구성을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 스캐너의 구성을 도시하고 있다.
도 3은 본 발명의 일 실시예에 따른 시스템 운영자 서버의 구성을 도시한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 상이한 탄성을 갖는 직물로 제조한 의류를 신체에 합성한 예를 도시하고 있다.
도 5는 본 발명의 일 실시예에 따른 신체 점군 데이터를 반영하여 의류 점군 데이터를 변형하는 예를 도시하고 있다.
도 6은 본 발명의 일 실시예에 따른 3D 합성 이미지 생성 방법을 도시한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 의류 클라우드 데이터 사이의 거리를 조절하는 과정을 도시한 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하여 상세하게 설명한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부 도면을 참조하여 본 발명 및 본 발명의 바람직한 실시예를 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 3D 합성 이미지를 생성하는 구성을 개략적으로 도시한 도면이다. 이하 도 1을 이용하여 3D 합성 이미지를 생성하는 구성에 대해 알아보기로 한다.
도 1에 의하면, 3D 합성 이미지를 생성하는 구성은 시스템 운영자 서버(100), 사용자 스캐너(200)를 포함하며, 시스템 운영자 서버(100)는 의류 데이터 생성부(110), 3D 합성 이미지 생성부(120), 제어부(30), 저장서버(150), 및 입력부(140)를 포함한다. 또한 사용자 스캐너(200)는 3D 스캐너(205), 통신부(220), 제어부(225), 입력부(210), 저장부(2015)를 포함한다. 물론 상술한 구성 이외에 다른 구성이 본 발명에서 제안하는 3D 합성 이미지를 생성하는 구성에 포함될 수 있다.
시스템 운영자 서버(100)는 의류를 3D 스캐너를 이용하여 스캔한다. 시스템 운영자 서버(100)는 스캔한 의류에 대한 스캐닝 데이터를 생성한다. 시스템 운영자 서버(100)는 생성한 스캐닝 데이터를 이용하여 의류 클라우드 데이터를 생성한다. 다만 본 발명이 이에 제한되는 것은 아니며 시스템 운영자 서버(100)는 3D 스캐너 이외에 다른 장치를 이용하여 의류디자인에 대한 점군 데이터를 생성할 수 있다. 이에 시스템 운영자 서버(100)는 의류 제작자로부터 제공된 3D 이미지 파일에서 의류 점군 데이터를 생성할 수 있다.
이하에서는 의류의 형태를 생성할 수 있는 데이터를 의류 클라우드 데이터라 정의하며, 의류 클라우드 데이터는 상기한 점군 데이터로 이루어질 수 있을 뿐만 아니라 메쉬 데이터로 이루어질 수도 있다. 다만 클라우드 데이터가 점군 데이터로 이루어지는 경우 용량이 작아서 데이터 처리 속도가 메쉬 데이터 또는 형상 데이터에 비하여 현저히 증가할 수 있다.
시스템 운영자 서버(100)는 의류의 형태를 생성할 수 있는 의류 점군 데이터 또는 의류 메쉬 데이터를 생성한다. 이를 위해 의류에 일정 간격으로 센서를 부착하고, 부착한 센서는 센서 상호간의 통신을 통해 센서 사이의 상대적인 거리를 측정할 수 있다. 시스템 운영자 서버(100)는 센서로부터 전달받은 상대적인 거리 정보를 이용하여 의류 점군 데이터를 생성한다. 다만 본 발명이 이에 제한되는 것은 아니며 시스템 운영자 서버(100)는 상술한 방식 이외에 다른 다양한 방식으로 의류 점군 데이터를 생성할 수 있다.
시스템 운영자 서버(100)는 입력부를 통해 의류와 원단에 대해 데이터를 입력 받는다. 즉, 입력부를 통해 의류와 원단에 대한 고유정보를 입력 받는다. 이에 대해서는 후술하기로 한다.
이와 같이 본 발명의 시스템 운영자 서버(100)는 단순히 의류의 형태나 색상에 대한 데이터뿐만 아니라 의류를 제조한 원단에 대한 고유정보를 이용하여 3D 합성 이미지를 생성한다.
사용자 스캐너(200)는 사용자의 전신을 스캔한다. 사용자 스캐너(200)는 생성한 사용자의 전신에 대한 스캔 데이터를 이용하여 사용자의 전신 형태를 생성할 수 있는 사용자 점군 데이터 또는 사용자 메쉬 데이터를 생성한다. 사용자 스캐너(200)는 필요한 경우 사용자의 고유정보를 입력 받는다. 사용자의 고유정보는 사용자의 이름, 나이(연령대), 키, 몸무게, 성별, 모발의 색상, 모발의 형태 등이 포함된다. 사용자 스캐너(200)는 사용자 점군 데이터와 사용자 고유정보를 시스템 운영자 서버(100)로 제공한다.
시스템 운영자 서버(100)는 사용자 스캐너(200)로부터 제공받은 사용자 점군 데이터, 사용자 고유정보와 저장된 의류 점군 데이터를 합성하여 3D 합성 이미지를 생성한다. 물론 시스템 운영자 서버(100)는 3D 합성 이미지를 생성함에 있어 원단에 대한 고유정보를 이용한다. 즉, 사용자 점군 데이터, 의류 점군 데이터가 동일하더라도 입력 받은 원단의 고유정보가 상이한 경우에는 생성되는 3D 합성 이미지 역시 다른 이미지가 생성된다. 이하에서 도 1에 도시되어 있는 각 구성에 대해 상세하게 알아보기로 한다.
도 2는 본 발명의 일 실시예에 따른 사용자 스캐너의 구성을 도시하고 있다. 이하 도 2를 이용하여 본 발명의 일 실시예에 따른 사용자 스캐너의 구성에 대해 상세하게 알아보기로 한다.
도 2에 의하면, 사용자 스캐너는 3D 스캐너, 입력부, 저장부, 통신부 및 제어부를 포함한다. 물론 상술한 구성 이외에 다른 구성이 본 발명에서 제안하는 사용자 스캐너에 포함될 수 있다.
3D 스캐너(205)는 사용자의 전신을 스캔한다. 3D 스캐너(205)는 스캔한 사용자의 전신에 대한 정보를 제어부(225)로 제공한다. 상술한 바와 같이 사용자 스캐너는 3D 스캐너 이외에 센서를 이용하여 사용자 클라우드 데이터를 생성할 수 있다. 여기서 클라우드 데이터는 점군 데이터 또는 메쉬 데이터로 이루어질 수 있다.
입력부(210)는 사용자 고유정보를 입력 받는다. 상술한 바와 같이 사용자 고유정보는 사용자의 나이, 성별, 키, 몸무게, 이름 등이 포함된다. 물론 상술한 정보 이외에 다른 정보가 사용자 고유정보에 포함될 수 있다.
제어부(225)는 3D 스캐너(205)로부터 제공받은 스캔 데이터를 이용하여 사용자 점군 데이터를 생성한다. 즉, 스캔 데이터에 비해 상대적으로 데이터 사이즈가 작은 사용자 점군 데이터를 생성한다. 사용자 점군 데이터는 사용자의 형태를 인지할 수 있는 데이터이므로 스캔 데이터에 비해 데이터 사이즈가 작다.
제어부(225)는 센서로부터 제공받은 각 센서 사이에 측정된 교차거리를 수직 및 수평성분으로 분할하고, 수직 및 수평성분 사이의 위치관계를 조합하여 사용자의 신체치수를 계산하며, 계산한 사용자의 신체치수를 이용하여 사용자 점군 데이터를 생성한다.
제어부(225)는 4개의 인접한 메쉬의 외곽에 위치하는 8개의 교차점인 외곽 교차점에 위치하는 센서로부터 4개의 메쉬의 중앙의 교차점인 중앙교차점까지의 측정거리인 대각거리에 기초하여 중앙교차점이 매쉬가 형성하는 평면으로부터 돌출된 거리인 돌출거리를 계산한다.
또한, 제어부(225)은 돌출거리가 미리 정해진 임계값 이상인 경우 측정된 신체치수를 미리 정해진 만큼 증가시켜 출력한다. 제어부(225)는 돌출거리가 가로 및 세로방향으로 진행할수록 미리 정해진 횟수만큼 연속해서 발생할 경우 측정된 신체치수를 미리 정해진 만큼 증가시켜 출력한다. 또한, 센서는 초음파 거리센서를 사용하는 것이 바람직하다.
저장부(215)는 입력 받은 사용자 고유정보, 스캔 데이터 및 사용자 점군 데이터를 저장한다. 또한 저장부(215)는 사용자 스캐너를 구동하는데 필요한 데이터를 저장한다.
통신부(220)는 외부의 시스템 운영자 서버(100)와 통신을 수행한다. 통신부(220)는 3D 스캐너(205)가 스캔한 사용자 전신에 대한 데이터를 외부의 시스템 운영자 서버(100)로 전송한다. 물론 통신부(220)는 스캔 데이터 이외에 사용자 점군 데이터를 전송할 수 있다. 이외에도 통신부(220)는 사용자 고유정보를 외부의 시스템 운영자 서버(100)로 전송한다.
통신부(220)는 외부의 시스템 운영자 서버(100)로부터 3D 합성 이미지를 수신한다. 이외에도 통신부(220)는 다양한 정보를 시스템 운영자 서버(100)로 전송한다.
도 2는 입력부(210)가 사용자 스캐너(200)에 포함되어 있는 것으로 도시되어 있으나, 이에 한정되는 것은 아니다. 즉, 입력부(210)는 사용자 스캐너 이외에 별도의 장치에 포함될 수 있다.
입력부(210)는 표시부(미도시)에 표시되어 있는 다수의 의류 중 선택할 수 있다. 즉, 표시부는 3D 스캐너로 스캔한 사용자의 신체와 합성할 의류를 표시한다. 이를 위해 표시부는 의류를 다수 개의 그룹으로 구분하여 표시할 수 있다. 즉, 의류를 상의, 하의로 구분하거나, 속옷, 외투 등 다양한 형태로 표시할 수 있다.
입력부(210)는 표시부에 표시되어 있는 다수의 의류 중 사용자의 신체와 합성할 의류를 선택한다. 물론 필요한 경우, 표시부는 사용자가 선택한 의류에 대한 상세 정보를 표시할 수 있다.
입력부(210)에 의해 선택된 의류(또는 의류 정보)는 통신부(220)를 통해 외부의 시스템 운영자 서버(100)로 전송한다. 부연하여 설명하면, 입력부(210)를 통해 선택된 의류가 적어도 2개 이상인 경우, 의류를 선택할 때마다 선택된 의류에 대한 정보를 시스템 운영자 서버(100)로 전송하거나, 모든 의류가 선택된 경우에 선택된 의류에 대한 정보를 시스템 운영자 서버(100)로 전송할 수 있다. 이와 같이 사용자는 필요에 따라 다양한 방식으로 선택된 의류에 대한 정보를 시스템 운영자 서버로 전송할 수 있다.
도 3은 본 발명의 일 실시예에 따른 시스템 운영자 서버의 구성을 도시한 블록도이다. 이하 도 3을 이용하여 본 발명의 일 실시예에 따른 시스템 운영자 서버의 구성에 대해 상세하게 알아보기로 한다.
도 3에 의하면, 시스템 운영자 서버(100)는 의류 데이터 생성부(110), 3D 합성 이미지 생성부(120), 제어부(130), 입력부(140), 저장 서버(150)를 포함한다. 물론 상술한 구성 이외에 다른 구성이 본 발명에서 제안하는 시스템 운영자 서버에 포함될 수 있다.
의류 데이터 생성부(110)는 스캐너로 의류를 스캔하여 의류 클라우드 데이터를 생성할 수 있다. 의류 데이터 생성부(110)는 점군 데이터 또는 메쉬 데이터를 생성할 수 있다. 또한, 의류 데이터 생성부(110)는 3D 이미지로부터 점군 데이터를 생성할 수도 있다.
저장서버(150)는 의류 데이터 생성부(110)가 스캔한 의류에 대한 정보를 저장한다. 저장서버(150)는 스캔한 의류에 대한 점군 데이터인 의류 점군 데이터를 저장한다. 이외에도 저장서버(150)는 다양한 정보를 저장한다. 즉, 저장서버(150)는 입력부(140)를 통해 입력된 의류를 제조한 원단에 고유정보를 저장한다. 원단에 대한 고유정보에 대해서는 후술하기로 한다.
입력부(140)는 의류를 구성하는 원단에 대한 고유정보와 의류의 고유정보를 입력 받는다. 여기서 원단에 대한 고유정보는, 섬유의 종류, 탄성, 직물의 굵기, 직물의 단위면적당 무게, 직물의 통기성, 인장강도, 인열강도, 마모강도, 내열성, 수분이동성, 강연도, 드레이프성, 필링, 가방성, 실의 강도, 방적성, 실의 균제성, 굴곡 및 굽힙 특성, 및 충진성을 포함할 수 있다. 또한, 의류의 고유정보라 함은 의류의 종류, 용도, 착용 부위, 등을 포함할 수 있다. 입력부(140)는 의류에 대한 다양한 정보를 입력 받는다. 또한, 입력부(140)는 의류에 대한 가격, 원산지, 제조일자 등 다양한 정보를 입력 받을 수 있다.
제어부(130)는 시스템 운영자 서버(100)의 동작을 제어한다. 또한, 제어부(130)는 기준점 설정부(131), 기준점 조절부(132), 점군 데이터 세부 조절부(133), 방향 연산부(134), 및 형상 제어부(135)를 포함할 수 있다.
기준점 설정부(131)는 의류 점군 데이터들 중에서 복수개의 기준점을 설정한다. 기준점은 기 설정된 간격으로 설정될 수 있으며, 의류의 형태에 따라 마디가 되는 부분에서 설정될 수도 있다.
기준점 조절부(132)는 기준점들 사이의 거리를 연산하고 기준점을 이동시킨다. 기준점 조절부(132)는 사용자 점군 데이터와 신체 점군 데이터의 조합에 의하여 기준점 사이의 거리를 연산하며 연산된 거리에 따라 기준점을 이동시킨다.
점군 데이터 세부 조절부(133)는 기준점으로부터 각 점군 데이터 사이의 거리를 조절한다. 점군 데이터 세부 조절부(133)는 기준점으로부터 각 점군 데이터 사이의 거리를 조절할 뿐만 아니라 점군 데이터 사이의 거리도 조절한다.
점군 데이터 세부 조절부(133)는 신체 분석부, 의류 분석부, 스트레스 연산부, 및 탄성 연산부를 포함한다. 신체 분석부는 사용자 신체의 부분들의 부피를 연산한다. 신체 분석부는 사용자의 신체를 각 부분으로 나누어 부피를 분석하는데, 예를 들어, 팔, 가슴, 어깨, 배 등으로 사용자의 신체를 나누어 부피를 분석할 수 있다.
스트레스 연산부는 의류의 각 부분에 가해지는 응력을 연산한다. 스트레스 연산부는 의류에 수용 가능한 공간을 연산하고, 이에 의하여 신체가 의류에 삽입될 때 의류의 각 부분에 가해지는 응력을 계산하고 저장한다. 스트레스 연산부는 각각의 점군 데이터에 가해지는 응력을 연산할 수 있다. 탄성 연산부는 원단의 고유정보와 의류의 형상을 고려하여 의류의 각 부분에 대한 확장 가능한 거리를 연산한다.
방향 연산부(134)는 의류 점군 데이터의 이동 방향을 설정하는데 의류에 가해지는 응력과 의류의 형태 등을 고려하여 의류 점군 데이터의 이동 방향을 연산한다. 의류 점군 데이터의 이동 방향은 응력과 탄성에 의하여 결정될 수 있다.
형상 제어부(135)는 의류 점군 데이터에서 신체와 맞닿는 복수개의 변곡점을 추출하고 변곡점에서 의류 점군 데이터의 형상 변화를 연산한다. 예를 들어 어깨와 맞닿은 부분에서 신체에 의하여 의류에 응력이 작용하지는 않지만 중력에 의하여 의류가 아래로 쳐지므로 의류 형상에 변화가 발생하는데, 형상 제어부(135)는 의류의 길이와 신체의 길이를 비교하여 의류의 형상 변화를 연산한다.
상술한 바와 같이 의류 점군 데이터는 의류의 스캔 데이터보다 데이터 용량이 상대적으로 작으므로 스캔 데이터를 사용하는 것보다 훨씬 효율적으로 사용할 수 있다. 즉, 제어부(130)는 데이터 용량이 상대적으로 작은 의류 점군 데이터를 이용하여 형태가 상이한 의류에 대한 데이터를 생성할 수 있다.
3D 합성 이미지 생성부(120)는 제어부(130)의 제어 명령에 따라 사용자 점군 데이터, 의류 점군 데이터 및 의류에 대한 고유정보를 이용하여 3D 합성 이미지를 생성한다. 3D 합성 이미지 생성부(120)는 사용자의 신체와 의류가 합성된 3D 합성 데이터를 생성하고 3D 합성 데이터로부터 윤곽선을 생성하고 색상을 결합하여 3D 합성 이미지를 생성한다.
상술한 바와 같이 스캔한 데이터를 변환한 의류 점군 데이터는 단순히 의류의 형상만을 나타내며, 의류의 색감이나 재질 등은 표현할 수 없다. 따라서 3D 합성 이미지 생성부(120)는 의류 점군 데이터에 의류의 색감이나 재질이 표현되는 스캔 데이터를 반영하여 3D 합성 이미지를 생성한다. 이렇게 스캔 데이터를 분리하여 3D합성하는 이유는 스캔 데이터는 점군 데이터보다 용량이 크므로 용량이 작은 점군 데이터를 이용하여 피팅 과정을 수행하면 보다 빠른 속도로 의류를 신체에 맞게 피팅시킬 수 있다.
저장 서버(150)에는 원단 및 의류에 대한 고유정보를 수치화되어 저장된다. 본 발명의 저장서버(150)는 다양한 직물에 대한 고유정보를 저장하며, 저장된 고유정보를 이용하여 3D 합성 이미지를 생성한다.
즉, 기존 3D 합성 이미지는 신체에 의류를 단순히 합성함으로써 의류와의 고유한 특성을 나타낼 수 없었지만, 본 발명은 3D 합성 이미지를 생성할 경우 의류와 원단의 고유한 특성을 반영하여 생성함으로써 동일한 형태나 색상을 갖는 의류라고 하더라도 의류의 고유한 특성에 따라 상이한 느낌을 갖는 3D 합성 이미지를 생성할 수 있다. 즉, 상대적으로 원단의 굵기가 얇은 의류의 경우 상대적으로 원단의 굵기가 굵은 의류에 대해 의류의 무게가 가볍다.
사용자로 하여금 이와 같은 느낌을 알 수 있도록 생성한 3D 합성 이미지를 일정한 속도로 회전시킬 수 있다. 3D 합성 이미지를 일정한 속도로 회전시키는 경우, 상대적으로 무게가 가벼운 의류는 상대적으로 무게가 무거운 의류에 비해 바람에 의한 의류의 이동(흔들림)이 많게 된다. 이와 같이 3D 합성 이미지를 일정한 속도로 회전시킴으로써 실제 사용자가 의류를 착용할 경우와 상대적으로 가장 가까운 상태를 가질 수 있다.
또한, 3D 합성 이미지 생성부(120)는 원단의 탄성 정보를 이용하여 3D 합성 이미지를 생성한다. 즉, 동일한 형상을 갖는 의류라고 하더라도 원단의 탄성에 따라 생성되는 3D 합성 이미지를 상이하게 된다. 즉, 원단의 탄성이 높은(즉, 신축성이 뛰어난) 의류의 경우, 신체의 모든 면에 의류가 밀착되는 반면, 원단의 탄성이 낮은(즉, 신축성이 약한) 의류의 경우, 신체의 일부에서만 의류가 신체가 밀착된다. 구체적으로 설명하면, 속옷의 경우 탄성이 좋은 원단으로 의류를 제조하므로, 3D 합성 이미지를 생성할 경우, 의류의 모든 면이 신체의 밀착된다. 반면, 외투의 경우 상대적으로 탄성이 낮은 원단으로 제조하므로, 3D 합성 이미지를 생성할 경우, 의류의 일부 면이 신체에 밀착된다. 이와 같이 본 발명은 의류를 제조하는 원단의 다양한 특성을 이용하여 3D 합성 이미지를 생성한다.
도 4는 본 발명의 일 실시예에 따른 상이한 탄성을 갖는 원단으로 제조한 의류를 신체에 합성한 예를 도시하고 있다. 즉, 도 4를 살펴보면, 신체는 두 개의 의류를 입고 있으며, 특히 내측에 위치하고 있는 의류는 상대적으로 탄성이 높은 원단으로 제조한 의류를 신체에 합성한 예를 도시하고 있으며, 외측에 위치하고 있는 의류는 상대적으로 탄성이 낮은 원단으로 제조한 의류를 신체에 합성한 예를 도시하고 있다.
상술한 바와 같이 탄성이 높은 원단으로 제조한 의류는 신체에 모두 밀착되는 반면, 탄성이 낮은 원단으로 제조한 의류는 신체의 일부에 밀착됨을 알 수 있다.
또한, 도 5는 신체 점군 데이터를 반영한 의류 점군 데이터를 변형하는 예를 도시하고 있다. 도 5에 도시되어 있는 바와 신체 점군 데이터(BP)와 의류, 원단의 고유정보에 따라 의류 점군 데이터(CP)를 변형하여 3D 합성 이미지를 생성한다. 즉, 신체 점군 데이터(BP)와 의류, 원단의 고유정보를 반영하여 의류 점군 데이터(CP)를 구성하고 있는 좌표(점군) 사이의 거리가 늘어남을 알 수 있다. 이렇게 생성된 3D 합성 점군 데이터에 스캔 데이터를 합성하여 3D 합성 데이터를 생성한다.
도 6은 본 발명의 일 실시예에 따른 3D 합성 이미지 생성 방법을 도시한 흐름도이다. 이하에서는 도 6을 이용하여 본 발명의 일 실시예에 따른 3D 합성 이미지 생성 방법에 대해 상세하게 알아보기로 한다.
본 실시예에 따른 3D 합성 이미지 생성 방법은 사용자 클라우드 데이터 생성 단계(S100), 의류 클라우드 데이터를 생성하는 단계(S200), 의류 클라우드 데이터 사이의 거리를 조절하는 단계(S300), 3D 합성 데이터를 생성하는 단계(S400), 및 3D 합성 이미지를 생성하는 단계(S500)를 포함한다.
사용자 클라우드 데이터 생성 단계(S100)는 사용자의 신체의 외형을 나타내는 사용자 점군 데이터 또는 사용자 메쉬 데이터를 생성하는 바, 신체 클라우드 데이터는 점군 데이터 또는 메쉬 데이터로 이루어질 수 있다. 사용자 점군 데이터를 생성하는 단계는 사용자 스캐너(200)를 이용하여 사용자의 신체를 스캔하여 사용자 점군 데이터를 생성할 수 있다.
사용자 클라우드 데이터 생성 단계(S100)는 사용자 스캐너(200)를 이용하여 생성한 사용자의 전신에 대한 스캔 데이터를 이용하여 사용자의 전신 형태를 생성할 수 있는 사용자 점군 데이터 또는 사용자 메쉬 데이터를 생성한다.
사용자 클라우드 데이터 생성 단계(S100)는 4개의 인접한 메쉬의 외곽에 위치하는 8개의 교차점인 외곽 교차점에 위치하는 센서로부터 4개의 메쉬의 중앙의 교차점인 중앙교차점까지의 측정거리인 대각거리에 기초하여 중앙교차점이 매쉬가 형성하는 평면으로부터 돌출된 거리인 돌출거리를 계산한다.
또한, 사용자 클라우드 데이터 생성 단계(S100)는 돌출거리가 미리 정해진 임계값 이상인 경우 측정된 신체치수를 미리 정해진 만큼 증가시켜 출력한다. 사용자 클라우드 데이터 생성 단계(S100)는 돌출거리가 가로 및 세로방향으로 진행할수록 미리 정해진 횟수만큼 연속해서 발생할 경우 측정된 신체치수를 미리 정해진 만큼 증가시켜 출력한다.
사용자 클라우드 데이터 생성 단계(S100)는 입력 받은 사용자 고유정보, 스캔 데이터 및 사용자 점군 데이터를 저장하고, 3D 스캐너(205)가 스캔한 사용자 전신에 대한 데이터를 외부의 시스템 운영자 서버(100)로 전송한다.
3D 합성 이미지 생성 방법은 사용자의 고유정보를 입력 받는 단계를 더 포함할 수 있으며, 사용자의 고유정보는 사용자의 이름, 나이(연령대), 키, 몸무게, 성별, 모발의 색상, 모발의 형태 등을 포함할 수 있다.
의류 클라우드 데이터를 생성하는 단계(S200)는 의류의 신체의 외형을 나타내는 의류 클라우드 데이터를 생성하는 바, 의류 클라우드 데이터는 점군 데이터 또는 메쉬 데이터로 이루어질 수 있다.
의류 클라우드 데이터를 생성하는 단계(S200)에서는 스캐너로 의류를 스캔하여 의류에 대한 스캐닝 데이터를 생성할 수 있으며, 생성한 스캐닝 데이터를 이용하여 의류 클라우드 데이터를 생성한다. 다만 본 발명이 이에 제한되는 것은 아니며 시스템 운영자 서버(100)는 3D 스캐너 이외에 다른 장치를 이용하여 의류디자인에 대한 점군 데이터를 생성할 수 있다. 이에 시스템 운영자 서버(100)는 의류 제작자로부터 제공된 3D 이미지 파일에서 의류 점군 데이터를 생성할 수 있다.
이하에서는 의류의 형태를 생성할 수 있는 데이터를 의류 클라우드 데이터라 정의하며, 의류 클라우드 데이터는 상기한 점군 데이터로 이루어질 수 있을 뿐만 아니라 메쉬 데이터로 이루어질 수도 있다. 다만 클라우드 데이터가 점군 데이터로 이루어지는 경우 용량이 작아서 데이터 처리 속도가 메쉬 데이터 또는 형상 데이터에 비하여 현저히 증가할 수 있다.
의류 클라우드 데이터를 생성하는 단계(S200)는 의류 데이터 생성부(110)가 스캔한 의류에 대한 정보를 저장하고, 스캔한 의류에 대한 점군 데이터인 의류 점군 데이터를 저장한다.
의류 클라우드 데이터 사이의 거리를 조절하는 단계(S300)는 사용자의 신체를 나타내는 신체 클라우드 데이터와 의류를 나타내는 의류 클라우드 데이터, 의류를 구성하는 원단의 고유정보 및 상기 의류의 고유정보를 조합하여 의류 클라우드 데이터 사이의 거리를 조절한다.
여기서 원단의 고유정보는 섬유의 종류, 탄성, 직물의 굵기, 직물의 단위면적당 무게, 직물의 통기성, 인장강도, 인열강도, 마모강도, 내열성, 수분이동성, 강연도, 드레이프성, 필링, 가방성, 실의 강도, 방적성, 실의 균제성, 굴곡 및 굽힙 특성, 및 충진성을 포함할 수 있다. 또한, 의류의 고유정보는 의류의 종류, 용도, 착용 부위, 등을 포함할 수 있다.
또한 도 7에 도시된 바와 같이 의류 클라우드 데이터 사이의 거리를 조절하는 단계(S300)는 기준점을 설정하는 단계(S301)와, 기준점들 사이의 거리를 조절하는 단계(S302)와, 세부 간격 조절 단계(S303)와, 이동 방향을 설정하는 단계(S304)와, 형상 변화를 연산 단계(S305)를 포함한다.
기준점을 설정하는 단계(S301)는 의류 점군 데이터들 중에서 복수개의 기준점을 설정한다. 기준점은 기 설정된 간격으로 설정될 수 있으며, 의류의 형태에 따라 마디가 되는 부분에서 설정될 수도 있다.
기준점들 사이의 거리를 조절하는 단계(S302)는 기준점들 사이의 거리를 연산하고 기준점을 이동시킨다. 기준점들 사이의 거리를 조절하는 단계(S302)는 사용자 점군 데이터와 신체 점군 데이터의 조합에 의하여 기준점 사이의 거리를 연산하며 연산된 거리에 따라 기준점을 이동시킨다.
세부 간격 조절 단계(S303)는 기준점으로부터 각 점군 데이터 사이의 거리를 조절한다. 세부 간격 조절 단계(S303)는 기준점으로부터 각 점군 데이터 사이의 거리를 조절할 뿐만 아니라 점군 데이터 사이의 거리도 조절한다.
세부 간격 조절 단계(S303)는 사용자 신체의 부분들의 부피를 연산하는 단계, 의류의 각 부분에 가해지는 응력을 연산하는 단계, 직물의 특성에 따라 확장 가능한 거리를 연산 하는 단계를 포함할 수 있다.
사용자 신체의 부분들의 부피를 연산하는 단계는 사용자의 신체를 각 부분으로 나누어 부피를 분석하는데, 예를 들어, 팔, 가슴, 어깨, 배 등으로 사용자의 신체를 나누어 부피를 분석할 수 있다.
응력을 연산하는 단계는 의류의 각 부분에 가해지는 응력을 연산한다. 응력을 연산하는 단계는 의류에 수용 가능한 공간을 연산하고, 이에 의하여 신체가 의류에 삽입될 때 의류의 각 부분에 가해지는 응력을 계산하고 저장한다. 응력을 연산하는 단계는 각각의 점군 데이터에 가해지는 응력을 연산할 수 있다. 직물의 특성에 따라 확장 가능한 거리를 연산 하는 단계는 원단의 고유정보와 의류의 형상을 고려하여 의류의 각 부분에 대한 확장 가능한 거리를 연산한다.
이동 방향을 설정하는 단계(S304)는 의류 점군 데이터의 이동 방향을 설정하는데 의류에 가해지는 응력과 의류의 형태 등을 고려하여 의류 점군 데이터의 이동 방향을 연산한다. 의류 점군 데이터의 이동 방향은 응력과 탄성에 의하여 결정될 수 있다.
형상 변화를 연산 단계(S305)는 의류 점군 데이터에서 신체와 맞닿는 복수개의 변곡점을 추출하고 상기 변곡점에서 상기 의류 점군 데이터의 형상 변화를 연산한다. 예를 들어 어깨와 맞닿은 부분에서 신체에 의하여 의류에 응력이 작용하지는 않지만 중력에 의하여 의류가 아래로 쳐지므로 의류 형상에 변화가 발생하는데, 형상 변화를 연산 단계(S305)는 의류의 길이와 신체의 길이를 비교하여 의류의 형상 변화를 연산한다.
3D 합성 데이터를 생성하는 단계(S400)는 사용자의 신체와 의류가 합성된 3D 합성 데이터를 생성한다. 3D 합성 이미지를 생성하는 단계(S500)는 3D 합성 데이터로부터 윤곽선을 생성하고 색상을 결합하여 3D 합성 이미지를 생성한다.
3D 합성 이미지를 생성하는 단계는, 사용자의 점군 데이터에 제1 의류의 외형을 나타내는 제1 의류 점군 데이터를 합성하는 단계와 제1 의류 점군 데이터를 합성한 이후 제2 의류의 외형을 나타내는 제2 의류 점군 데이터를 합성하는 단계를 포함할 수 있다. 또한, 제2 의류 점군 데이터에 대응되는 의류의 사이즈는 제1 의류 점군 데이터에 대응되는 의류의 사이즈와 상기 제1 의류의 두께에 따라 연산될 수 있다.
또한, 3D 합성 이미지를 생성하는 단계는, 사용자 점군 데이터에 합성될 의류 점군 데이터에 대응되는 의류를 적어도 2개 선택하면, 의류의 고유정보에 따라 선택된 2개의 의류에 대응되는 의류 점군 데이터가 순차적으로 사용자 점군 데이터에 자동으로 합성될 수 있다.
3D 합성 이미지 생성 방법은 3D 합성 이미지 생성 방법은 3D 합성 이미지를 생성한 단계 이후에, 3D 합성 이미지를 설정된 회전 속도로 회전시키는 단계를 더 포함할 수 있다. 사용자의 점군 데이터에 합성된 의류 점군 데이터에 대응되는 의류의 고유정보에 따라 3D 합성 이미지를 구성하는 의류의 움직임이 표현될 수 있다.
의류를 착용한 3D 합성 이미지는 마우스 또는 사용자 단말의 터치스크린을 드래그하여 이미지를 회전시킬 수 있다. 또한, 상술한 바와 같이 의류의 고유정보를 이용하여 선택된 의류는 자동으로 사용자 점군 데이터 중 해당 위치에 합성된다.
이외에도 3D 합성 이미지는 다양한 방식으로 제작될 수 있다. 일 예로 의류를 선택하여 사용자의 점군 데이터에 착용시켰을 경우 1차 선택된 의류가 자동으로 조합되어 합성된다. 이후 2차 선택 의류 착용 시 1차 선택한 의류를 사용자 점군 데이터에 착용하여 증가하는 두께를 감안하여 선택된 2차 의류를 사용자 점군 데이터에 합성한다. 이와 같은 방식으로 3D 합성 이미지는 이후에 선택한 의류를 이전에 선택한 의류에 외부에 착용하는 형태로 이미지를 구현할 수 있다. 이런 방식을 적용함으로써 실제 의류를 착용하였을 때와 동일한 효과를 구현할 수 있다. 또한, 이전에 선택된 의류의 외부에 착용되는 의류의 사이즈는 이전에 선택된 의류의 두께를 감안하는 착용되므로, 상술한 바와 같이 의류 점군 데이터는 다양한 형태로 변경이 가능한 것이 바람직하다.
부연하여 설명하면, 탄성이 우수한 원단으로 제조한 의류는 이전에 선택된 의류(내부에 작용되는 의류)의 두께가 얇은 경우 탄성으로 인해 의류가 일부 늘어나게 되므로, 굳이 한 단계 큰 사이즈의 의류를 합성할 필요가 없다. 하지만, 탄성이 낮은 원단으로 제조한 의류는 이전에 선택된 의류의 두께가 얇더라도 의류가 늘어나지 않으므로 한 단계(또는 두 단계 이상)의 큰 사이즈를 갖는 의류를 합성해야 한다. 이와 같이 본 발명은 의류와 원단의 고유특성을 이용하여 3D 이미지 생성한다.
드래그하여 의류가 사용자 점군 데이터에 착용될 수 있으며, 필요한 경우 의류가 마우스에 의하여 클릭되면, 의류의 고유 정보를 이용하여 의류가 자동으로 사용자 점군 데이터 중 해당 위치에 합성될 수 있다.
3D 합성 이미지 생성 방법은 생성한 3D 합성 이미지를 저장하는 단계를 포함할 수 있다. 저장하는 단계에서 3D 합성 이미지는 별도의 저장 공간에 저장될 수 있다. 즉, 다수의 3D 합성 이미지는 저장 공간에 저장된 후 필요한 경우 해당 3D 합성 이미지를 불러오거나 제3자에게 제공될 수 있다. 부가하여 본 발명은 선택된 3D 합성 이미지가 의류 제작업체로 전송되어 선택된 의류가 제작하도록 요청될 수 있다.
상술한 바와 같이 사용자는 합성한 3D 합성 이미지는 별도의 저장공간에 저장될 수 있으며, 필요한 경우 타인의 저장공간에 저장된 3D 합성 이미지가 타인의 허락 하에 불러올 수 있다. 부연하여 설명하면, 타인의 등록한 의류 이미지로부터 의류 점군 데이터를 추출하고, 추출한 의류 점군 데이터를 사용자 점군 데이터와 합성하여 합성 이미지를 생성한다. 물론 이 경우 의류 고유정보를 반영하여 합성 이미지를 생성한다.
상술한 바와 같이 의류 점군 데이터와 사용자 점군 데이터가 동일한 경우에도 의류의 고유정보가 상이한 경우에는 상이한 3D 합성 이미지가 생성된다. 이외에도 필요한 경우, 사용자 점군 데이터를 기반으로 의류 점군 데이터를 변형할 수 있다. 즉, 사용자가 기성복을 일부 변형한 의류를 제조하기를 희망하는 경우, 사용자 점군 데이터를 기반으로 의류 점군 데이터를 변형한다. 상술한 바와 같이 의류 점군 데이터를 일부 변형하는 경우, 스캔 데이터를 이용하는 것보다 상대적으로 데이터 용량이 작은 의류 점군 데이터를 이용하는 것이 바람직하다. 부연하여 설명하면, 사용자 점군 데이터를 기반으로 의류 점군 데이터를 일부 변형하여 3D 합성 이미지를 생성한다.
본 발명은 도면에 도시된 일 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.
[부호의 설명]
100: 시스템 운영자 서버 110: 의류 데이터 생성부
140: 입력부 120: 3D 합성 이미지 생성부
130: 제어부 131: 기준점 설정부
132: 기준점 조절부 133: 데이터 세부 조절부
134: 방향 연산부 135: 형상 제어부
140: 입력부 150: 저장 서버
200: 사용자 스캐너 205: 3D 스캐너
210: 입력부 215: 저장부
220: 통신부 225: 제어부

Claims (20)

  1. 사용자의 신체 이미지 데이터에 의류 이미지 데이터를 조합하여 3D 합성 이미지를 생성하는 방법에 있어서,
    사용자의 신체를 나타내는 신체 클라우드 데이터와 의류를 나타내는 의류 클라우드 데이터, 의류를 구성하는 원단의 고유정보 및 상기 의류의 고유정보를 조합하여 의류 클라우드 데이터 사이의 거리를 조절하는 단계; 및
    사용자의 신체와 의류가 합성된 3D 합성 데이터를 생성하는 단계;
    상기 3D 합성 데이터로부터 윤곽선을 생성하고 색상을 결합하여 3D 합성 이미지를 생성하는 단계;를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  2. 제1항에 있어서,
    상기 사용자의 신체의 외형을 나타내는 사용자 점군 데이터를 생성하는 단계, 및 상기 의류의 외형을 나타내는 의류 점군 데이터를 생성하는 단계를 더 포함하고, 상기 신체 클라우드 데이터와 상기 의류 클라우드 데이터는 점군 데이터로 이루어진 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  3. 제1항에 있어서,
    상기 사용자의 신체의 외형을 나타내는 사용자 메쉬 데이터를 생성하는 단계, 및 상기 의류의 외형을 나타내는 의류 메쉬 데이터를 생성하는 단계를 더 포함하고, 상기 신체 클라우드 데이터와 상기 의류 클라우드 데이터는 메쉬 데이터로 이루어진 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  4. 제2항에 있어서,
    상기 사용자 점군 데이터를 생성하는 단계는 사용자의 신체를 스캔하여 사용자 점군 데이터를 생성하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  5. 제4항에 있어서,
    상기 의류 점군 데이터를 생성하는 단계는 의류를 스캔하여 의류 점군 데이터를 생성하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  6. 제2항에 있어서,
    상기 의류 점군 데이터를 생성하는 단계는 입력된 의류의 3D 이미지 파일로부터 의류 점군 데이터를 생성하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  7. 제2항에 있어서,
    상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는,
    상기 의류 점군 데이터에 복수개의 기준점을 설정하는 단계와,
    상기 기준점들 사이의 거리를 조절하는 단계, 및
    상기 기준점으로부터 각 점군 데이터 사이의 거리를 조절하는 세부 간격 조절 단계를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  8. 제7항에 있어서,
    상기 세부 간격 조절 단계는,
    사용자 신체의 부분들의 부피를 연산하는 단계,
    상기 의류의 각 부분에 가해지는 응력을 연산하는 단계,
    직물의 특성에 따라 확장 가능한 거리를 연산 하는 단계를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  9. 제7항에 있어서,
    상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는, 상기 의류 점군 데이터의 이동 방향을 설정하는 단계를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  10. 제7항에 있어서,
    상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는, 상기 의류 점군 데이터에서 신체와 맞닿는 복수개의 변곡점을 추출하고 상기 변곡점에서 상기 의류 점군 데이터의 형상 변화를 연산하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  11. 제1항에 있어서,
    상기 원단의 고유정보는, 섬유의 종류, 탄성, 직물의 굵기, 직물의 단위면적당 무게, 직물의 통기성, 인장강도, 인열강도, 마모강도, 내열성, 수분이동성, 강연도, 드레이프성, 필링, 가방성, 실의 강도, 방적성, 실의 균제성, 굴곡 및 굽힙 특성, 및 충진성 중 적어도 하나임을 특징으로 하는 3D 합성 이미지 생성 방법.
  12. 제2항에 있어서,
    상기 3D 합성 이미지를 생성하는 단계는,
    상기 사용자의 점군 데이터에 제1 의류의 외형을 나타내는 제1 의류 점군 데이터를 합성하는 단계;
    상기 제1 의류 점군 데이터를 합성한 이후 제2 의류의 외형을 나타내는 제2 의류 점군 데이터를 합성하는 단계를 포함하며,
    상기 제2 의류 점군 데이터에 대응되는 의류의 사이즈는 상기 제1 의류 점군 데이터에 대응되는 의류의 사이즈와 상기 제1 의류의 두께에 따라 연산되는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  13. 제12항에 있어서,
    상기 3D 합성 이미지를 생성한 단계 이후에,
    상기 3D 합성 이미지를 설정된 회전 속도로 회전시키는 단계를 더 포함할 수 있으며, 상기 회전시키는 단계에서는 상기 사용자의 점군 데이터에 합성된 의류 점군 데이터에 대응되는 의류의 고유정보에 따라 상기 3D 합성 이미지를 구성하는 의류의 움직임이 표현되는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  14. 제2항에 있어서,
    상기 사용자의 고유정보를 입력 받는 단계를 더 포함하며,
    상기 사용자의 고유정보는 사용자의 나이, 성별, 모발색, 몸무게 중 적어도 하나인 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  15. 제2항에 있어서,
    상기 3D 합성 이미지를 생성하는 단계에서 상기 사용자 점군 데이터에 합성될 의류 점군 데이터에 대응되는 의류가 적어도 2개 선택되면, 상기 의류의 고유정보에 따라 선택된 상기 2개의 의류에 대응되는 의류 점군 데이터가 순차적으로 상기 사용자 점군 데이터에 합성되는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
  16. 사용자의 신체를 스캔한 데이터로부터 신체의 외형을 나타내는 사용자 점군 데이터를 생성하며, 생성한 상기 사용자 점군 데이터와 상기 사용자의 고유정보를 전송하는 사용자 스캐너;
    상기 사용자 점군 데이터, 의류 점군 데이터, 입력 받은 상기 의류를 구성하는 직물의 고유정보 및 상기 의류의 고유정보를 조합하여 사용자의 신체와 의류가 합성된 3D 합성 이미지를 생성하는 시스템 운영자 서버;를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 시스템.
  17. 제16항에 있어서,
    상기 시스템 운영자 서버는,
    의류를 스캔한 데이터로부터 의류의 외형을 나타내는 의류 점군 데이터를 생성하는 의류 점군 데이터 생성부를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 시스템.
  18. 제16항에 있어서,
    상기 시스템 운영자 서버는,
    의류 점군 데이터에 복수개의 기준점을 설정하는 기준점 설정부와,
    상기 기준점들 사이의 거리를 조절하는 기준점 조절부,
    상기 기준점으로부터 각 점군 데이터 사이의 거리를 조절하는 점군 데이터 세부 조절부를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 시스템.
  19. 제18항에 있어서,
    상기 점군 데이터 세부 조절부는, 사용자 신체의 부분들의 부피를 연산하는 신체 분석부, 상기 의류의 각 부분에 가해지는 응력을 연산하는 스트레스 연산부, 및 의류의 확장 가능한 거리를 연산하는 탄성 연산부를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 시스템.
  20. 제17항에 있어서,
    상기 시스템 운영자 서버는 형상 제어부를 더 포함하고 상기 형상 제어부는 상기 의류 점군 데이터에서 신체와 맞닿는 복수개의 변곡점을 추출하고 상기 변곡점에서 상기 의류 점군 데이터의 형상 변화를 연산하는 것을 특징으로 하는 3D 합성 이미지 생성 시스템.
PCT/KR2015/014104 2014-12-22 2015-12-22 신체 데이터와 의류 데이터를 조합한 3d 합성 이미지 생성 방법 및 시스템{method and system for 3d manipulated image combined physical data and clothing data} WO2016105087A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201580069744.1A CN107111897A (zh) 2014-12-22 2015-12-22 将人体数据与服装数据相结合的3d合成图像的生成方法及系统
US15/537,937 US20170372504A1 (en) 2014-12-22 2015-12-22 Method and system for generating 3d synthetic image by combining body data and clothes data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0185780 2014-12-22
KR20140185780 2014-12-22

Publications (1)

Publication Number Publication Date
WO2016105087A1 true WO2016105087A1 (ko) 2016-06-30

Family

ID=56151026

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/014104 WO2016105087A1 (ko) 2014-12-22 2015-12-22 신체 데이터와 의류 데이터를 조합한 3d 합성 이미지 생성 방법 및 시스템{method and system for 3d manipulated image combined physical data and clothing data}

Country Status (4)

Country Link
US (1) US20170372504A1 (ko)
KR (1) KR101671649B1 (ko)
CN (1) CN107111897A (ko)
WO (1) WO2016105087A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210056595A (ko) 2019-11-11 2021-05-20 서울과학기술대학교 산학협력단 대상자의 자세 추정 및 변경을 사용한 이미지 기반 가상의상 착용 방법, 이를 수행하기 위한 기록 매체 및 장치

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11615462B2 (en) * 2016-02-16 2023-03-28 Ohzone, Inc. System for virtually sharing customized clothing
KR101955256B1 (ko) * 2017-03-20 2019-03-11 최영진 의류이미지를 고객신체 이미지에 대응되는 마네킹이미지와 합성시키는 이미지 합성시스템 및 이를 이용한 이미지 합성방법
CN110476178A (zh) * 2017-03-30 2019-11-19 韩国斯诺有限公司 物品的推荐信息的提供方法及装置
KR102096008B1 (ko) * 2017-07-31 2020-04-02 주식회사 자이언소프트 점군을 이용한 신체 측정 시스템
KR102096016B1 (ko) * 2017-07-31 2020-04-02 주식회사 자이언소프트 가상신체 구현 시스템
KR102042551B1 (ko) * 2017-07-31 2019-11-12 주식회사 자이언소프트 3차원 의류 데이터 생성 시스템
KR102096003B1 (ko) * 2017-07-31 2020-04-02 주식회사 자이언소프트 점군 데이터로 이루어진 가상신체 구현 시스템
KR102096013B1 (ko) * 2017-07-31 2020-04-02 주식회사 자이언소프트 가상신체 구현 시스템
US10613710B2 (en) * 2017-10-22 2020-04-07 SWATCHBOOK, Inc. Product simulation and control system for user navigation and interaction
CA3106823A1 (en) 2018-07-19 2020-01-23 Activ Surgical, Inc. Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots
US10600230B2 (en) * 2018-08-10 2020-03-24 Sheng-Yen Lin Mesh rendering system, mesh rendering method and non-transitory computer readable medium
KR102129820B1 (ko) * 2018-10-04 2020-07-03 동의대학교 산학협력단 가상 의류 및 의류 착용 예측 시스템
US11386474B2 (en) * 2018-10-09 2022-07-12 Rovi Guides, Inc. System and method for generating a product recommendation in a virtual try-on session
KR102003002B1 (ko) 2018-12-05 2019-07-25 서경덕 스캐너를 이용한 의복제작 시스템
CN113906479A (zh) * 2018-12-28 2022-01-07 艾科缇弗外科公司 从局部深度图生成合成三维成像
US10842680B1 (en) * 2019-08-31 2020-11-24 Michael J. Weiler Methods and systems for fitting compression garments from digital imagery
US11494992B2 (en) 2020-08-27 2022-11-08 Micron Technology, Inc. Constructing an augmented reality image
KR102374141B1 (ko) * 2021-03-03 2022-03-15 (주)내스타일 유연한 가상 피팅 이미지 생성을 위한 의상영역 제거 방법
US11908083B2 (en) 2021-08-31 2024-02-20 Snap Inc. Deforming custom mesh based on body mesh
US11663792B2 (en) * 2021-09-08 2023-05-30 Snap Inc. Body fitted accessory with physics simulation
US11798238B2 (en) 2021-09-14 2023-10-24 Snap Inc. Blending body mesh into external mesh
US11836866B2 (en) 2021-09-20 2023-12-05 Snap Inc. Deforming real-world object using an external mesh
US11836862B2 (en) * 2021-10-11 2023-12-05 Snap Inc. External mesh with vertex attributes
US11790614B2 (en) 2021-10-11 2023-10-17 Snap Inc. Inferring intent from pose and speech input
US11763481B2 (en) 2021-10-20 2023-09-19 Snap Inc. Mirror-based augmented reality experience

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020051667A (ko) * 2000-12-23 2002-06-29 윤종용 가상적인 의상 착용 모습의 표현 방법 및 장치
US6546309B1 (en) * 2000-06-29 2003-04-08 Kinney & Lange, P.A. Virtual fitting room
US20090089186A1 (en) * 2005-12-01 2009-04-02 International Business Machines Corporation Consumer representation rendering with selected merchandise

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020024517A1 (en) * 2000-07-14 2002-02-28 Komatsu Ltd. Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space
US20100157021A1 (en) * 2006-11-15 2010-06-24 Abraham Thomas G Method for creating, storing, and providing access to three-dimensionally scanned images
KR20100048733A (ko) 2008-10-31 2010-05-11 에스케이씨앤씨 주식회사 사용자 고유 디자인을 지원하는 아바타 기반 의류 서비스 시스템 및 그 서비스 방법
US10628729B2 (en) * 2010-06-08 2020-04-21 Styku, LLC System and method for body scanning and avatar creation
US8649575B2 (en) 2010-08-24 2014-02-11 Samsung Electronics Co., Ltd. Method and apparatus of a gesture based biometric system
JP5786463B2 (ja) * 2011-06-01 2015-09-30 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
CN102902868A (zh) * 2011-07-26 2013-01-30 赵朔琼 一种应用于网络的三维仿真服装试穿系统
CN103533449A (zh) * 2012-12-20 2014-01-22 Tcl集团股份有限公司 一种基于智能3d电视的3d试衣的实现方法及系统
KR102184766B1 (ko) * 2013-10-17 2020-11-30 삼성전자주식회사 3차원 모델 복원 시스템 및 방법
KR101519123B1 (ko) * 2013-12-03 2015-05-15 주식회사 글로브포인트 키네틱 센서가 구비된 키오스크를 이용한 3d 의상 피팅 클라우드 시스템 및 그 방법
CN104123753B (zh) * 2014-08-13 2017-02-15 中山大学 基于服装图片的三维虚拟试衣方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6546309B1 (en) * 2000-06-29 2003-04-08 Kinney & Lange, P.A. Virtual fitting room
KR20020051667A (ko) * 2000-12-23 2002-06-29 윤종용 가상적인 의상 착용 모습의 표현 방법 및 장치
US20090089186A1 (en) * 2005-12-01 2009-04-02 International Business Machines Corporation Consumer representation rendering with selected merchandise

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
APEAGYEI, PHOEBE R.: "Application of 3D Body Scanning Technology to Human Measurement for Clothing Fit", INTERNATIONAL JOURNAL OF DIGITAL CONTENT TECHNOLOGY AND ITS APPLICATIONS, vol. 4, no. 7, October 2010 (2010-10-01), pages 58 - 68 *
LEE, JI EUN ET AL.: "A Study on the Dynamic Expression of Fabrics based on RGB-D Sensor and 3D Virtual Clothing CAD System", FASHION BUSINESS, vol. 17, no. 88, 4 January 2013 (2013-01-04), pages 30 - 41, ISSN: 1229-3350 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210056595A (ko) 2019-11-11 2021-05-20 서울과학기술대학교 산학협력단 대상자의 자세 추정 및 변경을 사용한 이미지 기반 가상의상 착용 방법, 이를 수행하기 위한 기록 매체 및 장치

Also Published As

Publication number Publication date
US20170372504A1 (en) 2017-12-28
CN107111897A (zh) 2017-08-29
KR101671649B1 (ko) 2016-11-01
KR20160076473A (ko) 2016-06-30

Similar Documents

Publication Publication Date Title
WO2016105087A1 (ko) 신체 데이터와 의류 데이터를 조합한 3d 합성 이미지 생성 방법 및 시스템{method and system for 3d manipulated image combined physical data and clothing data}
US11593871B1 (en) Virtually modeling clothing based on 3D models of customers
CN108886586B (zh) 用于合成图像的方法及其电子设备
WO2020203656A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6242768B2 (ja) 仮想試着装置、仮想試着方法、およびプログラム
JP6320237B2 (ja) 仮想試着装置、仮想試着方法、およびプログラム
JP6338966B2 (ja) 仮想試着装置、仮想試着システム、仮想試着方法、およびプログラム
US10423220B2 (en) Virtual try-on apparatus, virtual try-on method, and computer program product
WO2020153796A1 (ko) 전자 장치 및 그 동작방법
WO2019156522A1 (ko) 이미지/텍스트 기반 디자인 생성 장치 및 방법
JP6262105B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
Vitali et al. Acquisition of customer’s tailor measurements for 3D clothing design using virtual reality devices
JP2018106736A (ja) 仮想試着装置、仮想試着方法、およびプログラム
TWI790369B (zh) 尺寸測定系統
WO2023080711A1 (ko) 비전 ai를 활용하여 사용자의 신체 일부의 특징을 측정하여 맞춤형 의류를 제공하는 서버 및 방법과 이를 위한 시스템 및 방법
JP2018113060A (ja) 仮想試着装置、仮想試着システム、仮想試着方法、およびプログラム
JP7039094B1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2018182053A1 (ko) 오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치
KR20190140131A (ko) 신체 치수 계측 장치
KR20170143223A (ko) 3d 실감체험 콘텐츠 서비스 제공 장치 및 방법
KR20210130420A (ko) 스마트 삼차원 의류 피팅 시스템 및 이를 이용한 의류 피팅 서비스 제공 방법
JP2019112732A (ja) デジタルフィッティング支援装置、デジタルアパレル支援装置及びデジタルアパレル支援方法
WO2024053876A1 (ko) 카메라 캘리브레이션(camera calibration)을 수행하는 전자 장치 및 그 동작 방법
KR20220113210A (ko) 신체와 의류 데이터에 의한 3d 이미지 생성 방법
CN114556332B (zh) 信息处理设备、3d系统以及信息处理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15873614

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15537937

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15873614

Country of ref document: EP

Kind code of ref document: A1