KR20100012948A - Image dressing system for composing goods and user image in internet - Google Patents

Image dressing system for composing goods and user image in internet Download PDF

Info

Publication number
KR20100012948A
KR20100012948A KR1020080074397A KR20080074397A KR20100012948A KR 20100012948 A KR20100012948 A KR 20100012948A KR 1020080074397 A KR1020080074397 A KR 1020080074397A KR 20080074397 A KR20080074397 A KR 20080074397A KR 20100012948 A KR20100012948 A KR 20100012948A
Authority
KR
South Korea
Prior art keywords
image
user
product
unit
information
Prior art date
Application number
KR1020080074397A
Other languages
Korean (ko)
Inventor
가충희
주만석
Original Assignee
(주)엑스퍼넷
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엑스퍼넷 filed Critical (주)엑스퍼넷
Priority to KR1020080074397A priority Critical patent/KR20100012948A/en
Publication of KR20100012948A publication Critical patent/KR20100012948A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Tourism & Hospitality (AREA)
  • Processing Or Creating Images (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Processing (AREA)
  • Development Economics (AREA)

Abstract

PURPOSE: An image dressing system for combining a product image of an internet shopping mall with a user image is provided to determine whether a desired product is proper by combination of a product image, thereby selecting a proper product. CONSTITUTION: A web service unit(100) provides an interface screen for providing a product purchase service on the internet. An image extracting unit(120) extracts a product image and a combination target area image of a user image. An image combining unit(130) combines the extracted product image with a combination target area image of the user. The image combining unit transmits a combination result to a user terminal(200) through the web service unit. A storage unit(140) stores interface screen information, product information and product image information.

Description

인터넷 쇼핑몰의 상품이미지를 사용자 이미지에 합성하는 이미지드래싱 시스템{IMAGE DRESSING SYSTEM FOR COMPOSING GOODS AND USER IMAGE IN INTERNET}Image dressing system for compositing product images from internet shopping malls into user images {IMAGE DRESSING SYSTEM FOR COMPOSING GOODS AND USER IMAGE IN INTERNET}

본 발명은 사용자의 이미지 중에서 추출 대상이 되는 합성대상 영역 이미지를 추출한 후 인터넷 쇼핑몰에서 의류 및 개인 장신구류 등의 상품이미지를 추출된 합성대상 이미지에 합성하는 인터넷 쇼핑몰의 상품이미지를 사용자 이미지에 합성하는 이미지드래싱 시스템에 관한 것이다.According to the present invention, a product image of an internet shopping mall which extracts a synthesis target region image to be extracted from a user's image and then synthesizes a product image such as clothing and personal ornaments in the internet shopping mall is synthesized into a synthesis target image. An image dressing system.

최근 들어, 광 케이블 등을 통한 인터넷 전용선의 보급으로 인하여 데이터 전송 속도가 비약적으로 증가하고, 무선 인터넷 기술의 발달로 인한 인터넷 환경의 향상으로 인터넷 이용자의 수는 기하급수적으로 늘어나고 있으며, 이에 따라 인터넷 상에서 다양한 서비스를 제공하는 사이트들이 등장하고 있으며 그 중 가장 대표적인 것이 인터넷 쇼핑몰을 들 수 있다.Recently, data transmission speed has increased dramatically due to the spread of the Internet leased line through the optical cable, and the number of Internet users has increased exponentially due to the improvement of the Internet environment due to the development of wireless Internet technology. Sites that provide various services are emerging, the most representative of which is the Internet shopping mall.

쇼핑몰은 인터넷에서만 존재하는 것이 아니라, 이미 실물 세계에서 존재하고 있었던 개념이다. 실제로, Walmart, E-mart 등의 많은 쇼핑몰이 존재하고 있는데, 이러한 쇼핑몰의 개념을 인터넷에서 그대로 구현한 것이 인터넷 쇼핑몰이다. 즉, 사이버 쇼핑몰이란, 구매자가 물건을 구입하려고 할 때, 물품 판매처에 직접 방문하지 않고 인터넷상에 구축된 웹사이트를 통하여 물건을 구입하고 결재(신용카드, 전자화폐, 현금 등)를 실시하는 형태를 말하며, 이러한 인터넷 쇼핑몰은 흔히 전자 상거래(EC : Electronic Commerce) 업체라고 불린다.Shopping malls are not only existing on the Internet, but are concepts that already exist in the real world. Indeed, there are many shopping malls such as Walmart and E-mart, and the Internet shopping mall is the internet shopping mall. In other words, a cyber shopping mall is a form in which a purchaser makes a purchase (credit card, electronic money, cash, etc.) through a website established on the Internet without directly visiting a merchandise distributor when a buyer wants to purchase the product. These Internet shopping malls are often referred to as Electronic Commerce (EC) companies.

상술한 바와 같은 인터넷 쇼핑몰들은 독특한 서비스형태를 지향하여 다른 사이트들과의 차별성을 부각시키는 영업전략을 구사하고 있으며, 접근의 편리성, 구매 결제 수단의 발달, 배송시스템의 발달 등으로 인해 구매 등의 쇼핑 관련 분야에서는 오프라인의 쇼핑에 버금가는 비중을 차지하게 되었다.As described above, the Internet shopping malls have a sales strategy that emphasizes their distinctiveness from other sites in order to provide a unique service type, and make purchases due to convenience of access, development of a payment method, and development of a delivery system. In the shopping-related field, it has become the equivalent of offline shopping.

그러나 상술한 종래기술의 인터넷 쇼핑몰들은 구매과정이 단순하고 가격 비교 기능에만 치우친 나머지 구매자가 물건을 고를 때, 카탈로그 수준의 구성이 구매자에게 보여지고 있다. 다시 말해, 기존의 사이버 쇼핑몰은 쇼핑몰 시스템의 분류 기준에 따라 나열된 상품 또는 구매자가 검색엔진을 통하여 검색을 실시하고 검색 결과에 따른 상품의 이미지, 문서 정보 등을 조회한 후 구매자는 원하는 상품을 선택하는 방법 등의 물품 구매에 초점을 맞추어 운영되고 있는 것이다.However, the above-described Internet shopping malls of the related art have a catalog-level configuration shown to the buyer when the purchase process is simple and the buyer selects the product while the purchase process is simple and the price comparison function is biased. In other words, in the existing cyber shopping mall, a product listed according to the classification criteria of a shopping mall system or a buyer searches through a search engine, searches an image, document information, etc. of the product according to the search result, and then the buyer selects a desired product. It is focused on purchasing items such as methods.

그리고 상술한 바와 같은 종래기술의 인터넷 쇼핑몰에서 상품 선택을 위하여 제시된 방법은 사용자의 상품 선택을 위한 방법으로서 이미지 보기(view) 위주의 서비스를 제공하는 것에 한정되므로 의류 및 개인 장신구류를 판매하는 인터넷 쇼핑몰의 경우에 사용자가 해당 상품이 자기 자신에게 실제로 적합한지를 인터넷 쇼 핑몰의 이미지만을 가지고는 판단하기 어렵게 되는 문제점을 가진다.In the above-described Internet shopping mall of the related art, the method proposed for product selection is limited to providing an image view-oriented service as a method for selecting a product of the user, and thus, the Internet shopping mall selling clothes and personal ornaments. In this case, it is difficult for a user to determine whether the product is actually suitable for himself or herself using only the image of the internet shopping mall.

이러한 문제점을 극복하기 위하여 종래의 인터넷 쇼핑몰에서는 인형 옷 입혀보기 등의 플래시 게임을 이용하여 사용자의 상품을 구매하여 착용한 상태를 간접적으로 확인할 수 있도록 하는 서비스를 제공하고 있으나, 이는 인터넷 상의 고정된 아바타 위에 고정된 장신구류 등을 입혀보는 단순함에 불과하다. 또한, 무엇보다 실제 사진을 이용하고 있지 않으므로 사용자는 자신의 체형에 상품이 적합한 지를 판단할 수 없게 되는 문제점을 가진다.In order to overcome this problem, the conventional Internet shopping malls provide a service for indirectly checking a user's wearing state by purchasing a user's product using a flash game such as dressing a doll, but this is a fixed avatar on the Internet. It's just a simple way to put on your jewelry. In addition, since the user does not use the actual picture above, the user may not be able to determine whether the product is suitable for his or her body shape.

따라서 본원발명은 상술한 종래기술의 문제점을 해결하기 위한 것으로서, 사용자가 의료, 장신구 등을 파는 쇼핑몰에 접속하여 상품을 선택한 경우, 사용자의 사진 등의 이미지로부터 사용자 자신의 신체 영역 등의 합성 대상 영역의 이미지를 추출한 후 해당 상품을 착용한 것과 같이 합성하여 출력하여 줌으로써 사용자가 오프라인 상에서 실제 착용한 후 상품을 선택할 수 있는 것과 같은 상품 선택 서비스를 제공할 수 있도록 하는 인터넷 쇼핑몰의 상품이미지를 사용자 이미지에 합성하는 이미지드래싱 시스템을 제공하는 것을 그 목적으로 한다. Therefore, the present invention is to solve the above-mentioned problems of the prior art, when the user selects a product by accessing a shopping mall selling medical, jewelry, etc., the composition target area such as the user's own body area from the image of the user The product image of the Internet shopping mall that allows the user to provide a product selection service such as the user can select the product after actually wearing it offline by extracting the image of the product and composing it as if the product is worn. It is an object to provide an image dressing system for compositing.

상술한 목적을 달성하기 위한 본원 발명의 인터넷 쇼핑몰의 상품이미지를 사용자 이미지에 합성하는 이미지드래싱 시스템(이하 "이미지드래싱 시스템"이라 함)은, 인터넷 상에서 상품 구매 서비스를 제공할 수 있도록 하는 인터페이스 화면을 제공하는 웹서비스부와; 상기 웹서비스부를 통해 접속한 사용자가 선택한 상품이미지와, 사용자 영상 이미지에서의 합성 대상 영역 이미지를 추출하는 이미지추출부와; 상기 이미지추출부에서 추출된 상품 이미지를 상기 사용자의 합성 대상 영역 이미지에 합성하여 상기 웹서비스부를 통해 사용자 단말기로 전송하는 이미지합성부와; 웹서비스부의 인터페이스화면 정보, 상품정보, 상품 이미지 정보를 저장하는 저장부;를 포함하여 구성되는 것을 특징으로 한다.An image dressing system (hereinafter referred to as an "image dressing system") for compositing a product image of an Internet shopping mall of the present invention to a user image for achieving the above object is an interface screen for providing a product purchase service on the Internet. Providing a web service unit; An image extraction unit for extracting a product image selected by the user connected through the web service unit and a composition target region image from the user image image; An image synthesizing unit configured to synthesize the merchandise image extracted by the image extracting unit to the synthesis target region image of the user and transmit the commodity image to the user terminal through the web service unit; And a storage unit for storing interface screen information, product information, and product image information of the web service unit.

상기 웹서비스부는, IIS, 아파치서버 등의 인터넷 서비스를 제공하기 위한 서버시스템 프로그램으로 구현 가능하다.The web service unit may be implemented as a server system program for providing an Internet service such as IIS or Apache server.

그리고 웹서비스부에서 제공하는 인터페이스는, 인터넷을 통해 접속한 사용자 단말기로 상품 정보를 출력하는 상품정보출력 인터페이스화면, 결제 수행을 위한 결제인터페이스화면, 상기 사용자가 자신의 영상이미지로부터 합성대상 영역을 추출할 수 있도록 상호작용을 수행하는 사용자 이미지추출인터페이스와, 사용자 선택 상품 이미지와 사용자 영상 이미지 중 합성 대상 영역 이미지를 합성하는 합성이미지출력 인터페이스 화면을 제공하는 것을 특징으로 한다.The interface provided by the web service unit may include: a product information output interface screen for outputting product information to a user terminal connected through the Internet, a payment interface screen for performing payment, and the user to extract a region to be synthesized from his / her own image; And a composite image output interface screen for synthesizing a user image extraction interface for interacting with each other, and a synthesis target region image among the user selected product image and the user image image.

상술한 구성 중 사용자 이미지추출인터페이스는 사용자의 신체정보를 입력받을 수 있도록 구성되는 것을 특징으로 한다.The user image extraction interface of the above-described configuration is characterized in that configured to receive the user's body information.

상기 이미지추출부는 에지(edge)추출방법에 의해 합성대상 영역의 이미지를 추출하며, 상기 에지(edge)추출방법은 CANNY, 유사연산자, 미분연산자, 에지 최적임계값 검출방법, 노이즈제거, SNAKE 등의 외곽선추출알고리즘, 기하학적인 특징을 토대로 객체가 요구되는 객체의 모양정보를 이용하는 방법, 규격화된 표준 객체를 선장학습과정을 통하여 객체의 정확성을 판단하는 방법, 이미지의 색상 정보를 이용하는 방법으로서 색상정보의 히스토그램을 이용하는 방법, 색상정보의 확률분포를 이용하는 방법 중 하나 이상의 방법이 적용되는 것을 특징으로 한다.The image extraction unit extracts an image of the composition target region by an edge extraction method, and the edge extraction method includes CANNY, pseudo-operator, differential operator, edge optimal threshold detection method, noise removal, SNAKE, and the like. The outline extraction algorithm, the method of using the shape information of the object that requires the object based on the geometric characteristics, the method of determining the accuracy of the object through the captain learning process of the standardized standard object, the method of using the color information of the image At least one method of using a histogram and a method using a probability distribution of color information may be applied.

그리고 상기 이미지추출부는 사용자의 이미지로부터 합성대상 이미지를 추출하는 경우 웹서비스부를 통해 제공된 사용자 이미지추출인터페이스를 통해 사용자 가 지정한 영역을 합성 대상 영역으로 추출하는 것을 특징으로 한다. 이때 사용자의 영상 이미지 추출은 상기 에지추출방법과 살색 검출 알고리즘 및 KMEANS와 같은 클러스터링 알고리즘이 적용될 수 있다.When the image extracting unit extracts the synthesis target image from the user's image, the image extracting unit extracts a region designated by the user as the synthesis target region through the user image extraction interface provided through the web service unit. In this case, the edge extraction method, a skin color detection algorithm, and a clustering algorithm such as KMEANS may be applied to the user's image extraction.

상기 이미지합성부는 사용자 입력 신체 사이즈 정보에 따라 상품 이미지의 사이즈를 조절하여 상품 이미지를 이미지추출부에 의해 추출된 사용자의 합성 대상 영역 이미지와 합성한다. 이때 이미지 합성에는 모핑, 워핑 작업 등이 적용되어 합성이미지가 자연스럽게 합성되도록 한다. The image synthesizing unit adjusts the size of the merchandise image according to the user input body size information to synthesize the merchandise image with the user's synthesis target region image extracted by the image extracting unit. In this case, morphing and warping operations are applied to the image synthesis so that the synthesized image is naturally synthesized.

상술한 구성을 가지는 이미지드래싱 시스템은 일반적으로 인터넷 상에서 인터넷 서비스를 제공할 수 있도록 구성되는 중앙처리장치, 외부 입력장치, 표시장치, 통신장치, 저장장치, 출력장치 등을 구비한 서버컴퓨터로 구현될 수 있음은 자명하다.An image dressing system having the above-described configuration is generally implemented as a server computer having a central processing unit, an external input device, a display device, a communication device, a storage device, an output device, and the like, configured to provide an Internet service on the Internet. It can be obvious.

상술한 구성을 가지는 본원발명의 이미지드래싱 시스템은, 사용자가 상품을 선택하면, 해당 상품 이미지를 추출하고, 이후 사용자가 웹서비스부를 통해 사용자 사진 등의 사용자 영상 이미지로부터 합성대상 영역의 이미지를 추출하면 추출된 합성대상 이미지에 사용자가 선택한 해당 상품이지를 합성하여, 사용자가 착용한 것과 같은 이미지를 생성하여 출력함으로써 사용자가 상품이 자신에게 적합한 지를 판단할 수 있도록 한다.The image dressing system of the present invention having the above-described configuration, when a user selects a product, extracts the corresponding product image, and after the user extracts the image of the composition target region from the user image image, such as the user photo through the web service unit By synthesizing the corresponding merchandise selected by the user to the extracted synthesis target image, the user can determine whether the product is suitable for him by generating and outputting the same image as the user wears.

즉, 본원발명은 인터넷 상에서 실제 사용자가 자신의 사진에 상품이미지 (옷, 신발, 모자 등등)을 이용하여 가상적으로 해당 상품을 입어 봄으로써 자신에게 보다 적합한 상품을 고를 수 있게 된다.That is, the present invention allows a real user to select a product that is more suitable for him by virtually trying to wear the corresponding product using a product image (clothes, shoes, a hat, etc.) in his photograph on the Internet.

또한, 상술한 본원발명은 쇼핑몰 외에 자신의 사진을 이용하여 인터넷 상에서 실제 자신의 헤어스타일을 바꾸어 보는 등의 다양한 형식으로 구현될 수 있다.In addition, the present invention described above may be implemented in a variety of forms, such as changing the actual style of their hair on the Internet using their photos in addition to the shopping mall.

또한 상술한 본원발명은 2차원 영상뿐만 아니라, 3차원 영상이미지에도 적용될 수 있음은 자명하다.In addition, it is apparent that the present invention described above can be applied to not only two-dimensional images but also three-dimensional image images.

상술한 구성 및 작용을 수행하는 본 발명의 이미지드래싱 시스템은 사용자가 인터넷 상에서 실제로 자신의 사진에 상품이미지 (옷, 신발, 모자 등등)를 이용하여 가상적으로 상품을 착용하여 봄으로써 자신에게 보다 적합한 상품을 고를 수 있도록 하여 사용자가 잘못된 구매를 수행하는 것을 방지하고, 이로 인해 잘못된 구매에 따른 사용자 및 인터넷 쇼핑몰 운영사의 배송비 증가에 따른 비용의 낭비, 시간의 낭비 등을 방지할 수 있도록 하는 효과를 제공한다.The image dressing system of the present invention that performs the above-described configuration and operation is more suitable to the user by virtually wearing the product by using the product image (clothes, shoes, hats, etc.) on the user's own image on the Internet. It is possible to prevent the user from making a wrong purchase, thereby preventing the waste of time and the waste of time caused by the increase in the shipping cost of the user and the Internet shopping mall operator. .

또한, 본원발명은 사용자의 정확한 구매 수행을 보장함으로써 사용자들의 이용을 확대시킬 수 있으며, 이로 인해 인터넷 쇼핑몰 공급자는 매출을 증대시킬 수 있는 효과를 제공한다.In addition, the present invention can expand the use of the user by ensuring the correct purchase performance of the user, thereby providing an effect that the Internet shopping mall provider can increase the sales.

이하, 첨부 도면을 참조하여 본원발명을 더욱 상세히 설명한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본원발명의 실시예에 따르는 이미지 드래싱 시스템의 블록 구성도이다.1 is a block diagram of an image dressing system according to an embodiment of the present invention.

도 1에 도시된 바와 같이 본원발명의 이미지 드래싱 시스템은 인터넷 상에서 상품의 판매를 대행하는 이미지드래싱서버(100)가 인터넷 통신을 가능하게 하는 통신망(300)을 통해 접속되고, 사용자가 이동통신단말기(210), 개인용컴퓨터(220) 등의 사용자 단말기(200)를 이용하여 이미지드래싱서버(100)에 접속하여 사용자 이미지와 상품 이미지의 합성 이미지를 출력한 후 상품을 선택 구매할 수 있도록 구성된다.As shown in FIG. 1, the image dressing system of the present invention is connected to the image dressing server 100 for the sale of goods on the Internet through a communication network 300 enabling the Internet communication, and the user is connected to a mobile communication terminal ( 210, the user terminal 200, such as a personal computer 220, is connected to the image dressing server 100, and outputs a composite image of a user image and a product image, and then selects and purchases a product.

상술한 구성에서 상기 이미지드래싱서버(100)는, 사용자가 등록한 사용자 이미지로부터 합성 대상 영역 이미지를 추출한 후 사용자가 선택한 상품 이미지와 합성하여 출력하는 인터넷 서비스를 제공하는 웹서비스부(110)와; 웹서비스부(110)를 통해 접속한 사용자가 선택한 상품이미지와, 사용자 영상 이미지에서의 합성 대상 영역 이미지를 추출하는 이미지추출부(120)와; 이미지추출부(120)에서 추출된 상품 이미지를 상기 사용자의 합성 대상 영역 이미지에 합성하여 상기 웹서비스부를 통해 사용자 단말기로 전송하는 이미지합성부(130)와; 웹서비스부의 인터페이스화면 정보, 상품정보, 상품 이미지 정보, 회원정보, 구매자 정보, 배송지 정보, 각종 구동 프로그램 정보 등을 저장하는 저장부;와 도면에는 미 도시되어 있으나, 인터넷 접속을 가능하게 하는 통신부, 사용자 제어 명령을 입력받을 수 있도록 구성되는 입력부, 구동상태 정보를 표시하는 표시부, 내부 정보를 출력하는 출력부 등을 구 비한 서버 시스템으로 구성된다.In the above-described configuration, the image dressing server 100 may include: a web service unit 110 for extracting a synthesis target region image from a user image registered by a user and then synthesizing and outputting the product image selected by the user; An image extraction unit 120 for extracting a product image selected by the user connected through the web service unit 110 and a composition target region image from the user image image; An image synthesizing unit 130 for synthesizing the merchandise image extracted by the image extracting unit 120 to the synthesis target region image of the user and transmitting the commodity image to the user terminal through the web service unit; A storage unit for storing interface screen information, product information, product image information, member information, buyer information, delivery address information, various driving program information, etc. of the web service unit; and a communication unit for allowing internet access although not shown in the drawing; The server system includes an input unit configured to receive a user control command, a display unit for displaying driving state information, an output unit for outputting internal information, and the like.

상술한 구성을 가지는 본 발명의 일 실시 예에 따르는 이미지드래싱서버(100)는 단순한 모델 혹은 가공된 이미지가 아닌 실제 사진 이미지를 대상으로 하고 있다는 점에서 특징을 갖는다. 이러한 특징을 가지는 상기 이미지드래싱서버(100)의 각 구성을 더욱 상세히 설명한다.The image dressing server 100 according to an embodiment of the present invention having the above-described configuration has a feature in that it targets an actual photographic image, not a simple model or a processed image. Each configuration of the image dressing server 100 having such a feature will be described in more detail.

상기 이미지드래싱서버(100)의 구성 중 웹서비스부(110)는 인터넷 상에서 인터넷 서비스를 제공할 수 있도록 서버시스템 내에 구현되는 IIS, 아파치서버 등의 인터넷 서비스를 제공하기 위한 서버시스템 프로그램으로 구현된다.The web service unit 110 of the configuration of the image dressing server 100 is implemented as a server system program for providing an Internet service such as IIS, Apache server, etc. which is implemented in a server system to provide an Internet service on the Internet.

그리고 웹서비스부(110) 상술한 바와 같이 구성되는 웹서비스는 사용자 단말기(200)에서 구동되는 인터넷 익스플로러, 넷스케이프 등의 인터넷브라우져에서 출력되어 사용자가 인터넷을 통해 상호작용을 수행할 수 있도록 하는 인터페이스의 구동을 제어한다.And the web service 110 is configured as described above the web service is output from the Internet browser, such as Internet Explorer, Netscape running on the user terminal 200 of the interface to enable the user to interact through the Internet Control the drive.

여기서 상기 웹서비스부(110)에서 제공하는 인터페이스는, 인터넷을 통해 접속한 사용자 단말기로 상품 정보를 출력하는 상품정보출력 인터페이스화면, 결제 수행을 위한 결제인터페이스화면, 상기 사용자가 자신의 영상이미지로부터 합성대상 영역을 추출할 수 있도록 상호작용을 수행하는 사용자 이미지추출인터페이스와, 사용자 선택 상품 이미지와 사용자 영상 이미지 중 합성 대상 영역 이미지를 합성하는 합성이미지출력 인터페이스 화면을 포함하여 구성된다.Here, the interface provided by the web service unit 110 may include a product information output interface screen for outputting product information to a user terminal connected through the Internet, a payment interface screen for performing payment, and the user synthesized from his image image. A user image extraction interface for interacting to extract the target region, and a composite image output interface screen for synthesizing the synthesis target region image among the user-selected product image and the user image image.

그리고 상술한 구성 중 사용자 이미지추출인터페이스는 사용자의 신체정보를 입력받을 수 있도록 구성되어 이미지 합성부(130) 사용자 신체정보에 따라 합성될 상품이미지의 크기를 수정할 수 있도록 한다.In addition, the user image extraction interface of the above-described configuration is configured to receive the user's body information so that the image synthesis unit 130 can modify the size of the product image to be synthesized according to the user body information.

다음으로, 상기 이미지추출부(120)는 사용자의 이미지로부터 합성대상 이미지를 추출하고, 상품이미지를 추출하는 기능을 수행한다.Next, the image extracting unit 120 extracts a synthesis target image from the user's image and performs a function of extracting a product image.

이때 이미지추출부(120)는 에지(edge)추출방법 등에 의해 합성대상 영역의 이미지를 추출하며, 상기 에지(edge)추출방법은 CANNY, 유사연산자, 미분연산자, 에지 최적임계값 검출방법, 노이즈제거, SNAKE 등의 외곽선추출알고리즘, 기하학적인 특징을 토대로 객체가 요구되는 객체의 모양정보를 이용하는 방법, 규격화된 표준 객체를 선장학습과정을 통하여 객체의 정확성을 판단하는 방법, 이미지의 색상 정보를 이용하는 방법으로서 색상정보의 히스토그램을 이용하는 방법, 색상정보의 확률분포를 이용하는 방법 중 하나 이상의 방법이 적용되는 것을 특징으로 한다.At this time, the image extraction unit 120 extracts an image of the composition target region by an edge extraction method, etc. The edge extraction method is CANNY, pseudo-operator, differential operator, edge optimal threshold detection method, noise removal. Outline extraction algorithm, SNAKE, etc., how to use the shape information of the object that needs the object based on the geometric characteristics, how to determine the accuracy of the object through the captain learning process of standardized standard object, how to use the color information of the image As a method, one or more of a method using a histogram of color information and a method using a probability distribution of color information may be applied.

상기 이미지추출부(120)는 또한 사용자의 이미지로부터 합성대상 이미지를 추출하는 경우 웹서비스부를 통해 제공된 사용자 이미지추출인터페이스를 통해 사용자가 지정한 영역을 합성 대상 영역으로 추출하는 것을 특징으로 한다. 이때 사용자의 영상 이미지 추출은 상기 에지추출방법과 살색 검출 알고리즘 및 KMEANS와 같은 클러스터링 알고리즘을 적용한다.When the image extraction unit 120 extracts the synthesis target image from the user's image, the image extraction unit 120 extracts a region designated by the user through the user image extraction interface provided through the web service unit. At this time, the image extraction of the user applies the edge extraction method, a skin color detection algorithm, and a clustering algorithm such as KMEANS.

상술한 이미지추출부(120)의 이미지추출방법을 더욱 상세히 설명하면 다음과 같다.The image extraction method of the above-described image extraction unit 120 will be described in more detail as follows.

이미지추출부(120)는 사용자가 업로드한 사용자 이미지로부터 상품이미지와 합성대상이 되는 합성대상 영역이미지를 추출한다. 즉, 상기 이미지추출부(120)는 실제 사진 이미지 내에서의 객체 추출하여 이미지 간의 효과적인 이미지 합성을 수행할수 있도록 한다.The image extractor 120 extracts a commodity image and a composition target region image to be synthesized from the user image uploaded by the user. That is, the image extractor 120 extracts the object in the actual photographic image to perform effective image synthesis between the images.

현재 다양한 배경을 가지는 단일의 실사 이미지 내에서 객체를 추출하는 여러 접근법 중 이미지를 객체를 추출하는 방법에는 크게 에지를 추출하는 방법이 있다. 에지는 이미지 내에서 이미지 객체 간의 관계를 가장 손쉽게 살펴 볼 수 있는 방법으로, 에지를 추출하는 방법만도 CANNY, 유사 연산자, 미분 연산자 등을 이용한 많은 방법이 존재한다. 이러한 에지추출방법에 의해 추출된 이미지는 이미지에 따라 각기 다른 임계값이 존재할 수 있으며 최적의 임계값을 찾는 것이 필요하다. 또한, 이미지에 따라 발생하는 노이즈의 양도 다르게 되므로 노이즈 제거를 위한 이미지 필터 역시 필요하게 된다.Currently, among the various approaches for extracting an object in a single photorealistic image having various backgrounds, there is a method of extracting an edge in a method of extracting an object from an image. Edges are the easiest way to see the relationship between image objects in an image. There are many ways to extract edges using CANNY, similarity operators, and derivative operators. Images extracted by the edge extraction method may have different threshold values depending on the image, and it is necessary to find an optimal threshold value. In addition, since the amount of noise generated varies depending on the image, an image filter for removing noise is also required.

에지 정보를 통하여 객체를 추출하기 위하여는 객체의 외각 에지를 추출할 수 있어야 한다. 따라서 객체의 외곽선을 추적할 수 있는 SNAKE 등과 같은 외곽선 추적 알고리즘이 적용된다.In order to extract an object through the edge information, it is necessary to be able to extract the outer edge of the object. Therefore, an outline tracking algorithm such as SNAKE, which can trace the outline of the object, is applied.

여기에 보다 나은 객체 추출을 위하여 기하학적인 특징을 토대로 객체의 모양정보를 이용한 방법 또한 적용된다. 상술한 기하학적인 특징을 토대로 객체의 모양정보를 이용한 방법은 모양 정보를 통하여 에지를 토대로 추출된 객체가 요구되는 객체의 특징을 가지고 있는지 판단할 수 있도록 한다. 기하학적인 특징으로 객체의 특징을 판별하는 것 외에 규격화된 표준 객체를 선정 학습과정을 통하여 그 객체의 정확성을 판단할 수도 있다.The method using shape information of object based on geometric features is also applied to better object extraction. The method using the shape information of the object based on the above-described geometrical features makes it possible to determine whether the object extracted based on the edge has the required feature of the object through the shape information. In addition to determining the feature of the object by geometric features, the accuracy of the object can be determined through the selected learning process.

상술한 이미지추출부(110)에 의한 이미지추출은 상술한 에지, 기하학적인 모양정보, 학습 과정 이외에도 이미지 자체가 가지는 색상 정보 등을 이용하는 방법 또한 적용되며, 이러한 방법으로는 색상정보의 히스토그램을 이용하는 방법, 색상정보는 임계값을 이용하는 방법, 흔히 방송 등에 활용되는 크로마키 방법, 색상정보의 확률분포 방법 등이 존재한다.The image extraction by the above-described image extraction unit 110 is also applied to the method using the color information of the image itself in addition to the above-described edge, geometric shape information, learning process, such method using a histogram of the color information For example, the color information includes a threshold value, a chroma key method commonly used for broadcasting, a probability distribution method of color information, and the like.

인터넷 쇼핑몰의 상품 이미지의 경우 대체적으로 배경이 단일 색을 띠고 있는 경우가 많으므로 단일 색을 배경을 분석하면 인터넷 쇼핑몰 내에서의 상품 이미지를 추출하는 것이 복잡한 실사 이미지의 경우보다 훨씬 수월할 수 있다.In the case of a product image of an internet shopping mall, the background is usually of a single color. Therefore, analyzing a background of a single color may make it easier to extract a product image in an internet shopping mall than a complex photorealistic image.

또한, 단일 배경의 상품이미지의 경우 각 객체별로 비교적 단순한 에지가 존재하므로 에지, 기하학적인 모양정보, 학습 과정, 색상정보 등의 조합으로 상품이미지 객체의 추출이 가능하다. 사용자들이 사용하는 복잡한 배경의 실사 사진의 경우 이 정보 만으로는 정확한 객체추출의 어려울 수 있다. 따라서 오류를 보정할 수 있는 사용자의 상호작용을 허용을 통하여 이를 해결한다. 이를 위하여 상기 웹서비스부(110)는 사용자 단말기에서 사용자가 업로드한 사용자 이미지로부터 사용자가 합성 대상 영역을 선택할 수 있도록 하는 사용자 이미지추출인터페이스를 제공한다. 사용자는 사용자 단말기(200)의 인터넷 브라우져에 출력된 사용자 이미지추출인터페이스 상에서 사용자가 등록한 사용자 이미지 중 합성 대상 영역을 선택할 수 있으며, 이때 상품이미지의 적절한 사이즈의 선택을 위하여 사용자의 신체 정보를 함께 입력하도록 구성된다.In addition, in the case of a product image of a single background, since a relatively simple edge exists for each object, the product image object can be extracted by a combination of edges, geometric shape information, learning process, and color information. In the case of photorealistic pictures with complex backgrounds used by users, this information alone may be difficult to accurately extract objects. Therefore, this is solved by allowing the user's interaction to correct the error. To this end, the web service unit 110 provides a user image extraction interface that allows the user to select a composition target region from the user image uploaded by the user in the user terminal. The user may select a region to be synthesized among user images registered by the user on the user image extraction interface output to the Internet browser of the user terminal 200, and input the user's body information together to select an appropriate size of the product image. It is composed.

상기 이미지추출부(120)의 이미지추출방법을 예를 들어 더욱 상세히 설명하면 다음과 같다.For example, the image extraction method of the image extraction unit 120 will be described in more detail as follows.

도 2는 인터넷 쇼핑몰에서 제공되는 단일 배경을 가지는 상품이미지의 추출방법을 설명하기 위한 도면으로서, 이미지드래싱서버(100)를 구비한 인터넷 쇼핑몰에서 제공하는 실제 상품 이미지를 나타낸다.2 is a view for explaining a method of extracting a product image having a single background provided in an internet shopping mall, and shows an actual product image provided in an internet shopping mall having an image dressing server 100.

도 2에 도시된 바와 같이, 단일 배경을 가지고 있는 인터넷 쇼핑몰이미지는 다음과 같이 객체를 추출할 수 있다. 먼저 단일 배경의 쇼핑몰 이미지의 경우 작용할 수 있는 방법에 대해 설명한다. 단일 배경의 경우 복잡한 배경이 존재하지 않으므로 크로마키 방법(chroma key), 에지 추출 방법(edge detection)을 이용하면 효과적으로 객체를 분리할 수 있다. 크로마키 방법은 배경의 특징 색상을 알아내고 알아낸 배경의 특징을 토대로 임계값을 설정하여 객체를 추출하는 방법이다. 이는 하기의 수학식 1 내지 4를 이용하여 배경의 특징을 파악하여 특징 색상에 가중치를 부여하고 칼라공간을 Y, Cb, Cr의 공간으로 사영, Y공간과의 차이를 분석하면 그 객체를 분리할 수 있다.As shown in FIG. 2, an internet shopping mall image having a single background may extract an object as follows. First, the method that can operate in the case of a shopping mall image of a single background will be described. In the case of a single background, a complex background does not exist, and chroma key method and edge detection method can effectively separate objects. The chroma key method extracts an object by finding a feature color of a background and setting a threshold based on the found background feature. This is to use the following equations (1) to (4) to grasp the characteristics of the background, weight the feature color, project the color space into the space of Y, Cb, Cr, and analyze the difference with the Y space to separate the object. Can be.

수학식 1은 배경이 초록 계열일 경우 RGB공간의 영상을 Y 공간으로 사영시킬 때 Rgain 과 Bgain은 a 만큼의 게인을 감소시키고 반대로 G영역에 대하여는 b만큼 게인을 추가한다.In Equation 1, when the background is a green series, when RGB and Bgain are projected in the Y space, Rgain and Bgain decrease the gain by a and conversely, add the gain by b for the G region.

Y(green) =(R-a)*Rgain + (B-a)*Bgain +(G+b)*GgainY (green) = (R-a) * Rgain + (B-a) * Bgain + (G + b) * Ggain

이렇게 구해진 Y공간 사영 이미지는 수학식 2 내지 4를 이용하여 Y(green)와 원래 Y공간 영역과의 차를 구하고 여기에 255 값으로 정규화 과정을 처리하여 객체를 분리할 수 있다. N은 객체에 대하여 가중치가 부여된 이미지이고 c는 Y(green)와 Y 사이의 게인(gain)이 된다.The Y-space projected image obtained as described above may obtain the difference between Y (green) and the original Y-space region using Equations 2 to 4, and may be separated by subjecting the normalization process to a value of 255. N is the weighted image for the object and c is the gain between Y (green) and Y.

N=c*(Y(green)-Y)N = c * (Y (green) -Y)

N(i,j)>임계값th(threshold) -> N(I,j)= 255N (i, j)> threshold th (threshold)-> N (I, j) = 255

N(i,j)<임계값th(threshold) -> N(I,j)= 0N (i, j) <threshold th-threshold N> (I, j) = 0

상술한 위 수식에서는 green 배경을 예로 들었으며, 배경 색에 따라 Y(배경색)의 정보를 이용할 수 있다.("WIPI를 이용한 인물 배경 합성의 handset 컨텐츠 개발에 관한 연구" 멀티미디어 학회 2007년 참조)In the above formula, the green background is taken as an example, and information of Y (background color) can be used according to the background color. (See "A Study on the Development of Handset Contents of Human Background Synthesis Using WIPI."

다음으로, 도 3은 그린과 블루 배경하에서의 객체추출 방법을 적용한 것을 나타내는 도면으로서, 배경 색의 분리만으로 객체 추출이 어려울 경우 여기에 에지 정보를 추가하여 객체 분리를 한다.Next, FIG. 3 is a diagram illustrating an object extraction method under a green and blue background. When object extraction is difficult only by separation of a background color, edge information is added to the object separation.

다음으로, 도 4는 도 2의 인터넷 쇼핑몰 이미지에 노이즈 필터와 에지 추출을 적용하여 에지를 추출한 이미지를 나타내는 도면이다.Next, FIG. 4 is a diagram illustrating an image of edges extracted by applying a noise filter and edge extraction to the image of the Internet shopping mall of FIG. 2.

에지 추출 후 에지 검색을 통하여 세그멘테이션을 수행한다. 세그멘테이션 과정을 통하여 객체를 추출한다. 화살표 방향으로 세그멘테이션하는 방법 외에 snake와 같은 외곽선 추적 알고리즘을 적용하여 객체를 분리할 수 있다.After edge extraction, segmentation is performed through edge search. The object is extracted through the segmentation process. In addition to segmenting in the direction of the arrow, you can apply an outline tracking algorithm such as snake to separate the objects.

에지 추출 방법으로는 다음과 같은 것들이 있다.Edge extraction methods include the following.

유사 연산자 기법: 가장 단순하고 빠른 에지 추출기로 3x3블록의 중심 화소로부터 감산한 값에서 최대값을 결정하여 각 차 절대값 중 가장 큰 값을 사용하는 방법이다.Pseudo-operator technique: The simplest and fastest edge extractor is used to determine the maximum value subtracted from the center pixel of a 3x3 block and to use the largest of the absolute values of each difference.

차 연산자 기법: 유사연산자의 경우 8번 연산을 사용하지만 차 연산자의 경우 4번만 수행하여 계산한다.Difference Operator Technique: The similar operator uses eight operations, but the difference operator calculates it only four times.

미분 연산자 기법: 수평 방향과 수직 방향의 회선결과를 이용하여 에지를 추출한다.(Roberts,prewitt, sobel)Differential operator technique: Extract edges using convolution results in horizontal and vertical directions (Roberts, prewitt, sobel)

2차 미분 연산자 기법: 1차 미분의 단점을 보완 (laplacian,laplacian of Gaussian,differential of Gaussian)Quadratic Differential Operator Technique: Compensating for the Drawbacks of First Differential (laplacian, laplacian of Gaussian, differential of Gaussian)

Canny: 가우시안 마스크로 영상을 회선하고 각 화소들 간의 기울기 요소를 통하여 기울기 방향을 계산한다. 기울기 방향에 근거하여 2차 미분 값을 구하고 2차 미분의 0 값의 위치를 에지 점으로 분류하는 방법이다.Canny: Contours the image with a Gaussian mask and calculates the tilt direction through the tilt element between each pixel. The second derivative is obtained based on the slope direction, and the position of the zero value of the second derivative is classified as an edge point.

이렇게 분리하는 상품 객체는 의류뿐만 아니라 개인 장신구류 등뿐만 아니라 인터넷 쇼핑몰 내에서의 모든 상품을 대상으로 한다.This separating object object is not only clothing but also personal ornaments, etc., as well as all the goods in the Internet shopping mall.

도 5는 사용자가 업로드한 사용자 이미지로부터 합성 대상 영역 이미지를 추출한 것을 나타내는 도면으로서, 도 5를 참조하여 소비자가 올린 자신의 사진 내에 서 객체를 추출하는 방법에 대해 설명한다.FIG. 5 is a diagram illustrating an extraction of a composition target region image from a user image uploaded by a user, and describes a method of extracting an object from a photo uploaded by a consumer with reference to FIG. 5.

사용자가 사진 내에서 자신의 속해 있는 사진 영역을 표시하면 표시된 사진 내에서 사용자의 객체를 추출하게 된다. 추출 과정은 다음과 같다.When the user displays a picture area to which he belongs in the picture, the user's object is extracted from the displayed picture. The extraction process is as follows.

에지 정보 추출을 위하여 전처리 후 에지 영상을 만들고 노이즈 필터링을 한 영상을 구한다. 복잡한 배경일 경우 배경영역 내에서도 에지가 추출될 수 있기 때문에 사용자 객체를 파악하기 위하여 살색 검출 알고리즘을 적용하여 살색 영역을 추출한다. 살색영역과 에지 영상의 매칭을 통하여 살색 영역과 일치하는 에지의 중심점을 찾아 그 중심점을 중심으로 snake 등과 같은 외곽선 추출 알고리즘을 이용하여 외곽선을 분석해 나간다. 살색영역에 대한 분석을 통하여 사용자 이미지 객체를 추출하는 방법 외에 kmeans 등과 같은 클러스터링 알고리즘 등을 이용하여 색상 영역별로 세그멘테이션한 후 외곽선을 분석해 나갈 수도 있다. 그리고 외곽선 분석 외에 영역별 레이블링 작업을 통하여 객체 영역을 구분할 수도 있다. 또한, 웨이블릿을 응용한 클러스터링 디스턴스 값을 이용한 레이블링 작업을 통하여서도 영역 구분이 가능하다.For edge information extraction, edge image is made after preprocessing and noise filtered image is obtained. In the case of a complex background, edges can be extracted even in the background area, and the skin color area is extracted by applying a skin color detection algorithm to identify a user object. Through matching the skin region and edge image, we find the center point of the edge that matches the skin region and analyze the outline using the outline extraction algorithm such as snake around the center point. In addition to extracting user image objects through the analysis of the skin area, the contour line may be analyzed after segmentation by color area using a clustering algorithm such as kmeans. In addition to the outline analysis, the object region may be classified by region labeling. In addition, it is possible to classify regions through a labeling operation using a clustering distance value using wavelets.

이와 같은 일련의 과정을 통하여 객체영역을 분석하고 객체의 모양 정보를 분석하여 객체의 특징에 맞는지 확인한다. 객체의 특징과 맞는 경우 그것을 올바른 객체로 인식 그 영역을 추출한다. 객체의 모양정보는 기하학적인 방법을 이용할 수도 있고 객체 특징에 대한 신경망, 혹은 svm같은 분류기의 학습 과정 등을 통하여 판단할 수도 있다. 판단결과가 추출하려는 객체와 일치할 경우 객체를 분리한다. 다양한 배경 내에 객체를 완전히 분리하는 것은 매우 어려운 작업이므로 오류에 대 비한 사용자와의 상호작용을 허락한다. 사용자 상호 작용이라 함은 사용자가 자신이 원하는 객체를 직접 표시하는 방식을 뜻한다. 또한, 앞서 적용한 상품이미지 추출 과정에 포함된 방법 역시 추가 적용될 수 있다.Through this series of processes, the object area is analyzed and the shape information of the object is analyzed to determine whether it meets the characteristics of the object. If it matches the characteristics of the object, it recognizes it as the correct object and extracts its area. The shape information of the object can be determined by using a geometric method, neural network about the object features, or through the learning process of a classifier such as svm. If the result of the judgment matches the object to be extracted, the object is separated. It is very difficult to completely separate objects within various backgrounds, allowing for interaction with the user in case of errors. User interaction refers to the way the user directly displays the object he / she wants. In addition, the method included in the product image extraction process applied earlier may also be additionally applied.

사용자 이미지 추출 방법에 적용되는 살색 검출 알고리즘은 경험적임 방법과 칼라 히스토그램을 이용한 방법, Single Gaussian Model(SGM), Gaussian Mixture Model(GMM), 출원인 자체개발 살색검출 알고리즘을 이용한다. 또한, 다양한 살색의 분포에 대한 조사를 하고 그 결과의 학습을 통한 살색 영역 판별 역시 가능하다.The color detection algorithm applied to user image extraction method uses empirical method, color histogram method, Single Gaussian Model (SGM), Gaussian Mixture Model (GMM), and Applicant's own developed color detection algorithm. In addition, it is also possible to investigate the distribution of various skin color and to determine the skin color area by learning the result.

상술한 사용자 이미지 추출 방법에서 적용되는 살색 검출 알고리즘을 나타내는 수학식은 다음과 같다.The equation representing the flesh color detection algorithm applied in the above-described user image extraction method is as follows.

Figure 112008054927829-PAT00001
Figure 112008054927829-PAT00001

지금까지는 사용자 자신의 실사 이미지를 업로드 할 경우 객체를 분리하는 방법에 대하여 설명하였다. 다음으로는 모델을 통하여 사용자가 모델을 생성하는 방법을 설명한다. 먼저, 사람의 인체모델이 존재하고 있으며 사용자는 인체모델에 자신의 키와 몸무게 등의 신체 사이즈를 입력한다. 또한, 인체모델 각 부분을 수정하도록 하여 자신과 매우 흡사한 형태의 모델을 생성할 수 있도록 해준다.So far, we have explained how to separate objects when uploading your own photorealistic images. Next, we explain how to create a model through a model. First, a human body model exists and a user inputs a body size such as his height and weight in the human body model. Also, by modifying each part of the human body model, it is possible to create a model very similar to itself.

다음으로, 상기 이미지합성부(130)는 사용자 입력 신체 사이즈 정보에 따라 상품 이미지의 사이즈를 조절하여 상품 이미지를 이미지추출부에 의해 추출된 사용자의 합성 대상 영역 이미지와 합성한다. 이때 이미지 합성에는 워핑(Warphing), 모핑(Morphing), 메타몰포시스(Metamorphosis) 작업 등이 적용되어 합성이미지가 자연스럽게 합성되도록 한다.Next, the image synthesizing unit 130 adjusts the size of the product image according to the user input body size information and synthesizes the product image with the synthesis target region image of the user extracted by the image extracting unit. At this time, warping, morphing, and metamorphosis work are applied to the image synthesis, so that the synthesized image is naturally synthesized.

CG를 이용한 형상변형 기술이 나오기 전에는 특수분장을 이용하여 단계별로 촬영하여 디졸브(Dissolve-흔히 오버 랩(OVER LAB) 이라고도 한다. fade out 하는 앞 쇼트 위에 fade in 하는 뒤 쇼트를 이중 인화하면 앞 쇼트는 점차 사라지게 되고 뒤 쇼트는 점차 나타나게 된다.)시키는 방법을 이용하여 왔다. 그러나 이는 디졸브 시에 여러가지 비현실적인 결과를 나타냈고 많은 비용과 시간을 요구했다. 그러나 현재는 CG기술의 발달로 이런 여러 가지 문제점들이 모두 해결되게 되었는데, 이 기술이 바로 Warphing (워핑), Morphing (모핑), Metamorphosis (메타몰포시스)인 것이다. 이들은 모두 일종의 형상변형 작업을 의미한다. Before CG shape deformation technology emerges, it is also called Dissolve (commonly known as OVER LAB) by using a special make-up.If you double-print the back shot after fading in on the front shot that fades out, the front shot It gradually disappears and the back shot gradually appears.) However, this resulted in various unrealistic results during dissolve and cost a lot of money and time. But now, with the development of CG technology, all these problems have been solved, which is Warphing, Morphing, Metamorphosis. These all mean a kind of shape transformation work.

각각을 더욱 상세히 설명하면, In more detail,

워핑(Warphing)(또는 이것을 쉐입 애니메이션이라고도 한다.)이란, 형상은 그대로 두고 표정만 왜곡시키는 A에서 A'로의 변형을 뜻한다. 즉 물체의 텍스춰나 질감이 바뀌는 것이 아니라 형상만 변형되는 것을 말한다. 예를 들어 냉장고 광고 등에서 고양이가 웃는다든가, 예전의 광고에서 젖소가 웃는다든지, 에어콘 광고에서 에어콘이 불룩불룩거리는 것, 갓난 아기가 멘트에 맞춰 입을 움직이는 것들이 그런 예들이다.Warping (or sometimes referred to as shape animation) refers to a transformation from A to A 'that distorts the expression but leaves the shape intact. In other words, the texture or texture of the object is not changed, only the shape is deformed. For example, a cat smiles in a refrigerator advertisement, a cow smiles in an old advertisement, an air conditioner bulges in an air conditioner advertisement, and a newborn baby moves his mouth in line with such an example.

다음으로 모핑(Morphing)이란, 어떤 사물의 형상을 전혀 다른 형상으로, A에서 B로 서서히 변형시키는 기법을 말한다. 일 예로 뮤직 비디오에서 여러 인종 간에 모습이 바뀌는 장면 등이 이에 해당된다.Morphing refers to a technique of gradually deforming from A to B a shape of an object in a completely different shape. For example, in a music video, the scene changes between races.

그리고 메타몰포시스(Metamorphosis)는 3차원으로 제작된 CG 물체의 형상 변형으로, 모핑이 촬영된 실사 이미지들 간의 형상 변형임에 반해 메타몰포시스는 CG에서 만들어진 3차원 물체의 형상 변형을 뜻한다. 그리고 대부분의 모핑에서는 카메라가 정적인데 반해 메타몰포시스에서는 카메라가 얼마든지 여러 각도에서 자유스럽게 움직일 수 있는 장점이 있다. 그러나 업체에서 흔히 메타몰포시스를 줄여 모핑이라고 부르기도 한다In addition, metamorphosis is a shape deformation of a CG object manufactured in three dimensions. In contrast, metamorphosis refers to a shape deformation of a three-dimensional object made in CG, while morphing is a shape deformation between real images taken. And while most cameras are static in morphing, Metamorphosis has the advantage of allowing the camera to move freely from any angle. However, companies often reduce metamorphosis and call it morphing.

도 6은 본원발명의 이미지드래싱시스템에 의한 이미지 합성 과정의 처리과정을 나타내는 순서도이다.6 is a flowchart illustrating a process of an image synthesizing process by the image dressing system of the present invention.

도 6에 도시된 바와 같이 상품 구매를 희망하는 사용자는 사용자 단말기(200)를 이용하여 인터넷이 가능한 통신망(300)을 통해 이미지드래싱서버(100)에 접속하여, 상품 검색을 수행한 후 구매를 희망하는 상품을 선택한다. 사용자가 구매 희망상품을 선택하면 이미지드래싱서버(100)의 이미지추출부(120)가 저장부(140)에 저장된 상품이미지를 검색하여 추출하거나, 웹서비스부(110)에서 제공되는 상품정보 이미지로부터 해당 상품이미지를 추출하며, 이때 이미지추출 방법은 상술한 도 1의 이미지추출부(110)의 설명에서 제시한 방법들을 사용하게 된 다(S10).As shown in FIG. 6, a user who wishes to purchase a product may access the image dressing server 100 through a communication network 300 capable of internet using the user terminal 200, and then perform a product search to purchase. We choose product to say. When the user selects the desired product to purchase, the image extracting unit 120 of the image dressing server 100 searches for and extracts the product image stored in the storage unit 140 or from the product information image provided by the web service unit 110. The product image is extracted, and the image extraction method uses the methods described in the above description of the image extraction unit 110 of FIG. 1 (S10).

상술한 바와 같이 사용자가 구매 희망 상품을 선택하여 상품이미지가 추출된 후, 사용자가 합성을 원하는 영상 이미지를 포함하는 자신의 이미지를 이미지드래싱서버(100)로 업로드하면, 이미지 드래싱서버(100)의 이미지추출부(120)가 해당 이미지로부터 상품 이미지와 합성될 영상 이미지를 추출한다. 이 과정에서도 상술한 도 1의 이미지추출부(120)의 설명에서 제시한 이미지추출방법이 적용된다.As described above, after the user selects the desired product to be extracted and the product image is extracted, when the user uploads his own image including the video image to be synthesized to the image dressing server 100, the image dressing server 100 The image extractor 120 extracts an image image to be synthesized from the product image from the image. In this process, the image extraction method described in the above description of the image extraction unit 120 of FIG. 1 is applied.

또한 상술한 처리과정에서 웹서비스부(110)는 사용자가 사용자 영상 이미지로부터 합성 대상영역 이미지를 선택할 수 있도록 사용자 이미지추출인터페이스 화면을 사용자 단말기(200)로 전송한 후 사용자가 업로드한 이미지 중 합성대상 영역을 선택할 수 있도록 구성된다. 이 경우 사용자 이미지추출인터페이스는 선그리기, 색선택 등을 수행할 수 있도록 구성되며, 또한 이미지합성부(130)에서 사용자 이미지에 합성될 상품 이미지의 사이즈 조절을 위하여 사용자의 신체 사이즈, 몸무게 정보를 입력할 수 있도록 구성된다.In addition, in the above-described process, the web service unit 110 transmits the user image extraction interface screen to the user terminal 200 so that the user can select a synthesis target region image from the user image image, and then synthesizes the image among the images uploaded by the user. It is configured to select an area. In this case, the user image extraction interface is configured to perform line drawing, color selection, and the like, and also inputs the user's body size and weight information to adjust the size of the product image to be synthesized in the user image in the image synthesis unit 130. Configured to do so.

사용자가 사용자 이미치추출인터페이스 화면을 통해 합성 대상 영역을 선택하면 이미지추출부(120)는 상술한 도 1의 설명에 제시된 이미지추출 방법을 적용하여 사용자 영상 이미지로부터 합성 대상 영역의 이미지를 추출한다(S20). When the user selects the synthesis target region through the user image extraction interface screen, the image extractor 120 extracts an image of the synthesis target region from the user image image by applying the image extraction method described in the above description of FIG. S20).

상술한 바와 같이, 상품이미지, 사용자 영상이미지로부터 합성 대상 영역 이미지가 추출된 후에는 이미지합성부(130)는 상품이미지를 사용자가 입력한 신체정 보에 따라 크기를 조절한 후 사용자의 합성 대상 영역 이미지에 해당 상품이미지를 합성한 후 이를 웹서비스부(110)를 통해 사용자 단말기로 전송하여 출력함으로써 사용자가 상품의 착용 상태를 확인할 수 있도록 한다. 도 7은 상술한 이미지합성부(130)에 의해 합성될 사용자 이미지 중 합성 대상 영상 이미지와 합성될 상품이미지 및 합성된 이미지를 나타낸다. 이 경우 의류, 장신구 등은 사용자가 의류와 장신구를 착용한 상태가 되도록 합성하게 되며, 이 과정에서 자연스러운 합성을 위하여 모핑, 워핑 작업이 수행됨은 상술한 바와 같다(S30).As described above, after the composition target region image is extracted from the product image and the user image image, the image synthesis unit 130 adjusts the size of the product image according to the body information input by the user and then synthesizes the region of the user's composition. After compositing the corresponding product image to the image and transmits it to the user terminal through the web service unit 110 so that the user can check the wearing state of the product. FIG. 7 illustrates a commodity image and a synthesized image to be synthesized with the synthesis target image image among the user images to be synthesized by the image synthesizing unit 130 described above. In this case, clothing, ornaments, etc. are synthesized so that the user wears clothing and ornaments, and in this process, the morphing and warping operations are performed for natural synthesis as described above (S30).

도 1은 본원발명의 실시예에 따르는 이미지 드래싱 시스템의 블록 구성도,1 is a block diagram of an image dressing system according to an embodiment of the present invention;

도 2는 인터넷 쇼핑몰에서 제공되는 단일 배경을 가지는 상품이미지의 추출방법을 설명하기 위한 도면,2 is a view for explaining a method of extracting a product image having a single background provided in an internet shopping mall;

도 3은 그린과 블루 배경하에서의 객체추출 방법을 적용한 것을 나타내는 도면,3 is a view showing an object extraction method applied under a green and blue background;

도 4는 도 2의 인터넷 쇼핑몰 이미지에 노이즈 필터와 에지 추출을 적용하여 에지를 추출한 이미지를 나타내는 도면,4 is a diagram illustrating an image of edges extracted by applying a noise filter and edge extraction to the image of the Internet shopping mall of FIG. 2;

도 5는 사용자가 업로드한 사용자 이미지로부터 합성 대상 영역 이미지를 추출한 것을 나타내는 도면,FIG. 5 is a diagram illustrating an extraction of a composition target region image from a user image uploaded by a user; FIG.

도 6은 본원발명의 이미지드래싱시스템에 의한 이미지 합성 과정의 처리과정을 나타내는 순서도,6 is a flowchart showing a process of an image combining process by the image dressing system of the present invention;

도 7은 상술한 이미지합성부(130)에 의해 합성될 사용자 이미지 중 합성 대상 영상 이미지와 합성될 상품이미지 및 합성된 이미지를 나타내는 도면이다.FIG. 7 is a diagram illustrating a merchandise image to be synthesized, a commodity image to be synthesized, and a synthesized image among the user images to be synthesized by the image synthesizing unit 130 described above.

* 도면의 주요 부호에 대한 설명 *Description of the main symbols in the drawings

100: 이미지드래싱서버 110: 웹서비스부100: image dressing server 110: Web service unit

120: 이미지추출부 130: 이미지합성부120: image extraction unit 130: image synthesis unit

140: 저장부140: storage unit

200: 사용자 단말기200: user terminal

210: 이동통신 단말기 220: 개인용 컴퓨터210: mobile communication terminal 220: personal computer

300: 통신망300: network

Claims (5)

인터넷 상에서 상품 구매 서비스를 제공할 수 있도록 하는 인터페이스 화면을 제공하는 웹서비스부와;A web service unit providing an interface screen for providing a product purchase service on the Internet; 상기 웹서비스부를 통해 접속한 사용자가 선택한 상품이미지와, 사용자 영상 이미지에서의 합성 대상 영역 이미지를 추출하는 이미지추출부와;An image extraction unit for extracting a product image selected by the user connected through the web service unit and a composition target region image from the user image image; 상기 이미지추출부에서 추출된 상품 이미지를 상기 사용자의 합성 대상 영역 이미지에 합성하여 상기 웹서비스부를 통해 사용자 단말기로 전송하는 이미지합성부와;An image synthesizing unit configured to synthesize the merchandise image extracted by the image extracting unit to the synthesis target region image of the user and transmit the commodity image to the user terminal through the web service unit; 웹서비스부의 인터페이스화면 정보, 상품정보, 상품 이미지 정보를 저장하는 저장부;를 포함하여 구성되는 것을 특징으로 하는 인터넷 쇼핑몰의 상품이미지를 사용자 이미지에 합성하는 이미지드래싱 시스템.And a storage unit for storing interface screen information, product information, and product image information of the web service unit. 청구항 1에 있어서, 상기 웹서비스부는, 인터넷을 통해 접속한 사용자 단말기로 상품 정보를 출력하는 상품정보출력 인터페이스화면, 상기 사용자가 자신의 영상이미지로부터 합성대상 영역을 추출할 수 있도록 상호작용을 수행하는 사용자 이미지추출인터페이스와, 사용자 선택 상품 이미지와 사용자 영상 이미지 중 합성 대상 영역 이미지를 합성하는 합성이미지출력 인터페이스 화면을 포함하는 인터페이스를 제공하도록 구성되는 것을 특징으로 하는 인터넷 쇼핑몰의 상품이미지를 사 용자 이미지에 합성하는 이미지드래싱 시스템.The method of claim 1, wherein the web service unit, the product information output interface screen for outputting the product information to the user terminal connected through the Internet, the user to perform the interaction so that the user can extract the composition region from the video image And a user image extraction interface, and an interface including a composite image output interface screen for synthesizing a synthesis target region image among the user selected product image and the user image image. Image dressing system to synthesize. 청구항 2에 있어서, 상기 사용자 이미지추출인터페이스는 사용자의 신체정보를 입력받을 수 있도록 구성되는 것을 특징으로 하는 인터넷 쇼핑몰의 상품이미지를 사용자 이미지에 합성하는 이미지드래싱 시스템.The image dressing system of claim 2, wherein the user image extraction interface is configured to receive input of user's body information. 청구항 4에 있어서, 상기 이미지추출부는, 웹서비스부를 통해 제공된 사용자 이미지추출인터페이스를 통해 사용자가 지정한 영역을 합성 대상 영역으로 추출하는 것을 특징으로 하는 인터넷 쇼핑몰의 상품이미지를 사용자 이미지에 합성하는 이미지드래싱 시스템.The image dressing system of claim 4, wherein the image extracting unit extracts a region designated by the user as a composition target region through a user image extracting interface provided through a web service unit. . 청구항 3에 있어서, 상기 이미지합성부는 사용자 입력 신체 사이즈 정보에 따라 상품 이미지의 사이즈를 조절하여 상품 이미지를 이미지추출부에 의해 추출된 사용자의 합성 대상 영역 이미지와 합성하도록 구성되는 것을 특징으로 하는 인터넷 쇼핑몰의 상품이미지를 사용자 이미지에 합성하는 이미지드래싱 시스템.The Internet shopping mall of claim 3, wherein the image synthesizing unit adjusts the size of the commodity image according to the user input body size information and synthesizes the commodity image with the synthesis target region image of the user extracted by the image extracting unit. Image dressing system to combine the product image of the user image.
KR1020080074397A 2008-07-30 2008-07-30 Image dressing system for composing goods and user image in internet KR20100012948A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080074397A KR20100012948A (en) 2008-07-30 2008-07-30 Image dressing system for composing goods and user image in internet

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080074397A KR20100012948A (en) 2008-07-30 2008-07-30 Image dressing system for composing goods and user image in internet

Publications (1)

Publication Number Publication Date
KR20100012948A true KR20100012948A (en) 2010-02-09

Family

ID=42087047

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080074397A KR20100012948A (en) 2008-07-30 2008-07-30 Image dressing system for composing goods and user image in internet

Country Status (1)

Country Link
KR (1) KR20100012948A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101406413B1 (en) * 2013-10-02 2014-06-13 강효진 Creating and Sharing Method Of Image Bundle Including Partial Image, Adding Method Of New Partial Image To Image Bundle, Image Displaying Method Of Image Bundle, and Image Bundle Sharing System

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101406413B1 (en) * 2013-10-02 2014-06-13 강효진 Creating and Sharing Method Of Image Bundle Including Partial Image, Adding Method Of New Partial Image To Image Bundle, Image Displaying Method Of Image Bundle, and Image Bundle Sharing System

Similar Documents

Publication Publication Date Title
US11344102B2 (en) Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and a method for recommending makeup
US9336459B2 (en) Interactive content generation
US11908052B2 (en) System and method for digital makeup mirror
US10991067B2 (en) Virtual presentations without transformation-induced distortion of shape-sensitive areas
EP3433816A1 (en) Apparatus, systems, and methods for integrating digital media content into other digital media content
US20210133919A1 (en) Cloth Warping Using Multi-Scale Patch Adversarial Loss
US9269157B2 (en) Methods for extracting objects from digital images and for performing color change on the object
US20190332884A1 (en) Metric-based recognition, systems and methods
CN111681070B (en) Online commodity purchasing method, purchasing device, storage device and purchasing equipment
CA2734143A1 (en) Method and apparatus for estimating body shape
CN110609617A (en) Apparatus, system and method for virtual mirrors
KR102102571B1 (en) System and method for providing online shopping platform
KR101699765B1 (en) Method for purchasing goods using picture taken by consumer
CN111862116A (en) Animation portrait generation method and device, storage medium and computer equipment
Shadrach et al. Smart virtual trial room for apparel industry
US20160042233A1 (en) Method and system for facilitating evaluation of visual appeal of two or more objects
CN114758109A (en) Virtual fitting method and system, and method for providing virtual fitting information
US9953242B1 (en) Identifying items in images using regions-of-interest
Xia et al. Acquiring accurate body measurements on a smartphone from supplied colored garments for online apparel purchasing platforms and e-retailers
KR20100012948A (en) Image dressing system for composing goods and user image in internet
CN112102018A (en) Intelligent fitting mirror implementation method and related device
KR20100012949A (en) Internet goods and user bbaground image composing system in internet
CN114219578A (en) Unmanned garment selling method and device, terminal and storage medium
CN106485206A (en) The teaching method being combined based on the video pictures made up and device
CN114339434A (en) Method and device for displaying goods fitting effect

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application