KR20170142890A - System and Method for generating 3-Dimensional composited image of goods and packing box - Google Patents

System and Method for generating 3-Dimensional composited image of goods and packing box Download PDF

Info

Publication number
KR20170142890A
KR20170142890A KR1020170072916A KR20170072916A KR20170142890A KR 20170142890 A KR20170142890 A KR 20170142890A KR 1020170072916 A KR1020170072916 A KR 1020170072916A KR 20170072916 A KR20170072916 A KR 20170072916A KR 20170142890 A KR20170142890 A KR 20170142890A
Authority
KR
South Korea
Prior art keywords
target
file
image
information
dimensional
Prior art date
Application number
KR1020170072916A
Other languages
Korean (ko)
Other versions
KR102031647B1 (en
Inventor
이철윤
Original Assignee
(주)샘터
이철윤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)샘터, 이철윤 filed Critical (주)샘터
Priority to PCT/KR2017/006172 priority Critical patent/WO2017217752A1/en
Publication of KR20170142890A publication Critical patent/KR20170142890A/en
Application granted granted Critical
Publication of KR102031647B1 publication Critical patent/KR102031647B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention provides a system and a method for generating a three-dimensional synthetic image of goods and a packing box, which allow a user to observe goods on a website in detail and check the function and characteristics of each component, allow the user to select a packing box for packing the goods, and simulate a process of setting the goods selected by the user in the packing box or the like. The system for generating a three-dimensional synthetic image of goods and a packing box comprises a first target database, a first target file management part, a second target database, a second target file management part, a second target object extraction part, a second target animation creation part, a synthetic image file creation part and an image file execution part.

Description

상품과 포장상자의 3차원 합성영상 생성 시스템 및 방법{System and Method for generating 3-Dimensional composited image of goods and packing box}TECHNICAL FIELD The present invention relates to a system and a method for generating a three-dimensional composite image of a product and a packaging box,

본 발명은 상품과 포장상자의 3차원 합성영상 생성 시스템 및 시스템에 관한 것으로, 특히 웹상에서 상품과 그 상품을 포장하는 포장상자의 3차원 합성영상을 제공하기 위한 상품과 포장상자의 3차원 합성영상 생성 시스템 및 방법에 관한 것이다.The present invention relates to a system and a system for generating a three-dimensional composite image of a product and a packaging box, and more particularly, to a three-dimensional composite image of a product and a packaging box for providing a three- Generating system and method.

종래에는 소비자가 웹상에서 상품을 구매할 때, 소비자는 단지 상품의 2차원 이미지만 확인한 후 상품을 선택하거나, 포장이 다 이루어진 상태의 상품을 2차원 이미지로 확인한 후 상품을 선택하게 된다.Conventionally, when a consumer purchases a product on the web, the consumer selects a product after confirming only a two-dimensional image of the product, or selects a product after confirming the packaged product as a two-dimensional image.

이 경우, 소비자는 상품에 대해 충분한 정보(예를 들면, 상품의 전체 형상에 대한 정보, 상품의 구성요소에 대한 정보, 상품의 포장상태에 대한 정보 등)를 획득하지 못한 상태에서 상품을 선택할 수밖에 없으며, 상품공급자는 소비자가 선택한 상품을 획일적으로 만들어진 포장상자에 포장하여 제공하게 된다.In this case, the consumer is forced to select a product without obtaining sufficient information about the product (for example, information on the overall shape of the product, information on the component of the product, information on the packaging state of the product, etc.) No, the goods supplier will provide the goods selected by the consumer in a uniform packing box.

따라서, 소비자로서는 자신이 구매한 상품을 배송받아 직접 확인하기 전까지는, 소비자 자신이 구매한 상품이 적절한 상품인지 또는 상품이 어떤 형태로 포장이 이루어져 있는지를 확인할 수 없었을 뿐만 아니라 상품을 포장하는 포장상자에 대한 소비자의 기호(선택권)가 전혀 반영되지 못했다.Therefore, until the consumer himself / herself confirms the purchase of the purchased product, he / she can not confirm whether the purchased product is the proper product or the product is packaged, The consumer's preference for the product was not reflected at all.

즉, 소비자로서는 상품을 배송받아 확인하기 전까지는 상품이나 포장상태에 대해 확신할 수 없기 때문에, 특히 이러한 문제는 소비자가 웹상에서 상품을 구매하여 제3자에게 선물하는 것을 꺼리게 되는 주요한 원인의 하나로 작용하고 있다. 따라서, 이런 상황에서 소비자로서는 번거롭더라도 오프라인에서 직접 상품을 확인하고 구매한 후, 그 상품을 직접 포장하여 배송하는 방법을 선택할 수밖에 없었다.In other words, since consumers can not be sure about the product or package status until they have confirmed the delivery of the product, this problem is one of the main causes of the consumer's reluctance to purchase the product on the web and present it to a third party . Therefore, in such a situation, as a consumer, even if it is troublesome, the user has to select a method of directly checking and purchasing the product offline and then wrapping the product directly.

이에 대해, 한국 공개특허 제10-2012-0122498호(이하, "특허문헌 1"이라 함.)에서는 직접 상품을 보지 못하고 구매한 구매자의 불안감을 해소하기 위하여, 고객이 주문한 상품을 포장하는 전 과정을 동영상으로 촬영하여 이를 고객에 제공하는 상품포장 동영상촬영 및 전송 자동화 솔루션을 개시하고 있다.On the other hand, in Korean Patent Laid-Open No. 10-2012-0122498 (hereinafter referred to as "Patent Document 1"), in order to solve the anxiety of a purchaser who does not see the product directly, Is being shot as a moving picture and provided to the customer.

그러나 특허문헌 1은 단지 상품공급자가 일방적으로 행하는 상품포장 과정을 동영상으로 촬영하여 소비자에게 제공하는 것에 불과한 것으로, 소비자가 상품을 구매하기 전에 미리 상품의 포장상태를 확인할 수 있는 것이 아니며, 또한 소비자 자신이 원하는 포장상자를 선택할 수 있는 것도 아니다. However, Patent Document 1 merely captures a product packaging process performed unilaterally by a product supplier and provides the product to a consumer. It does not mean that a consumer can check the packaging state of a product in advance before purchasing the product, It is not possible to choose the packaging box you want.

이와 같이 소비자에게 포장상자의 선택권을 부여할 수 없었던 것은, 포장상자의 전개도를 디자인한 후 3차원 포장상자 형태로 완성하여 자유자재로 시뮬레이션해 보거나 포장상자 내부에 상품을 세팅하는 과정 및 결과를 시뮬레이션해 볼 수 있는 시스템이 없었기 때문이다.The reason why customers could not be given the option of packing box was that they could design a development chart of the packaging box and then complete it in the form of a three-dimensional packing box to simulate freely or to set the product inside the packaging box and simulate the result There was no system that could do it.

이러한 상황은, 상품공급자의 입장에서도 실제 포장상자에 포장되는 상품의 세팅 상태를 확인하기 위해서는, 다양한 형태나 디자인의 포장상자에 대해 실제 샘플 등을 제작하여 상품의 세팅과정을 확인하여야 하기 때문에, 소비자가 선택할 수 있도록 다양한 포장상자를 제공하는 것이 곤란하였다.In order to confirm the setting state of the product packed in the actual packing box, the actual setting of the product should be confirmed by preparing the actual sample for the packing box of various shapes and designs, It is difficult to provide various packing boxes so that the user can select the packaging box.

또한, 종래에 웹상에서 제공되는 상품에 대한 정보는 상품의 구성요소와는 관계없이 획일적으로 제공되고 있기 때문에 소비자가 상품을 선택하는 과정에서 각 상품의 구성품들이 갖고 있는 요소별 특징 및 기능들을 확인할 수 없었으며, 또한 상품에 대한 이미지가 2차원 영상으로만 제공되고 있기 때문에 실물과 동일한 이미지를 확인하는 데 한계가 있었다.In addition, since information on a product conventionally provided on the web is provided uniformly irrespective of the constituent elements of the commodity, in the process of selecting a commodity by the consumer, the characteristics and functions of the elements of the commodities can be confirmed In addition, since the image of a product is provided only as a two-dimensional image, there was a limit in confirming the same image as the real one.

따라서, 실물을 직접 접하지 못하는 소비자로서는 웹상에서 제공되는 상품이 자신이 원하는 최적의 상품인지 확신하기 어렵고, 또한 이러한 문제는 상품의 구매를 주저하게 되는 주요한 원인이 되기도 한다.Accordingly, it is difficult for a consumer who can not directly touch a real object to make sure that a product provided on the web is the optimum product desired by himself or herself, and such a problem also becomes a major cause of hesitation in purchasing a product.

한국 공개 특허 제10-2012-0122498호 공보Korean Patent Laid-Open No. 10-2012-0122498

본 발명은, 상기와 같은 종래의 문제를 감안한 것으로, 사용자가 웹상에서 상품의 자세한 관찰 및 구성요소별 기능과 특징들을 확인할 수 있고, 사용자가 그 상품을 포장하는 포장상자를 선택할 수 있으며, 사용자가 선택한 상품이 포장상자에 세팅되는 과정 등을 시뮬레이션을 통해 확인할 수 있는 상품과 포장상자의 3차원 합성영상 생성 시스템 및 방법을 제공하기 위한 것이다.SUMMARY OF THE INVENTION The present invention has been made in view of the above-described conventional problems, and it is an object of the present invention to provide a method and apparatus for a user to observe details of a product on a web and identify functions and features of each component, And a process of setting a selected commodity in a packaging box, and a method and system for generating a three-dimensional composite image of a commodity and a packaging box.

본 발명은, 웹상에서 상품과 상기 상품을 포장하는 포장상자의 3차원 합성영상을 제공하기 위한 상품과 포장상자의 3차원 합성영상 생성 시스템으로서, 복수의 상품들을 카테고리별로 분류한 상품리스트와 상기 상품들에 관련된 데이터 정보를 저장하고 있는 제1타켓 데이터베이스와, 상기 제1타켓 데이터베이스에 저장된 복수의 상품으로부터 선택된 상품인 제1타켓에 대한 3차원 모델 데이터의 제1타켓 파일을 관리하는 제1타켓 파일 관리부와, 복수의 포장상자를 다양한 카테고리별로 분류하고, 적어도 상기 복수의 포장상자들의 전개도에 관한 정보를 저장하고 있는 제2타켓 데이터베이스와, 상기 제2타켓 데이터베이스에 저장된 복수의 포장상자로부터 선택된 포장상자인 제2타켓에 대한 웹에서 편집가능한 파일인 제2타켓 파일을 관리하는 제2타켓 파일 관리부와, 상기 제2타켓 데이터베이스에 저장된 상기 제2타켓의 전개도의 선분을 분석하여 상기 제2타켓의 면정보와 축정보를 추출하는 제2타켓 개체 추출부와, 상기 제2타켓 개체 추출부에서 추출된 제2타켓의 면정보와 축정보를 이용하여, 추출된 면들 사이에 추출한 회전축을 삽입하고, 제2타켓 파일에 애니메이션 정보를 입력하여 시간에 따라 공간적으로 변형되는 제2타켓 파일의 애니메이션 객체를 생성하는 제2타켓 애니메이션 생성부와, 상기 제1타켓 파일 관리부에서 관리되는 제1타켓 파일과 상기 제2타켓 애니메이션 생성부에서 애니메이션 객체가 생성된 제2타켓 파일을 결합하여 합성영상 파일을 생성하는 합성 영상파일 생성부와, 상기 합성 영상파일 생성부에 의해 생성된 합성영상 파일을 애니메이션으로 실행하는 영상파일 실행부를 포함하는 것을 특징으로 한다.A three-dimensional composite image generation system for providing a three-dimensional composite image of a product and a packaging box for packing the product on the web, the system comprising: a product list in which a plurality of products are classified according to categories; Dimensional model data for a first target, which is a product selected from a plurality of products stored in the first target database, and a second target database for managing a first target file of the three- A second target database for classifying a plurality of packing boxes according to various categories and storing information about at least a developed view of the plurality of packing boxes; A second target for managing a second target file that is an editable file on the web for the second target, A second target object extracting unit for analyzing a line segment of the developed view of the second target stored in the second target database to extract face information and axis information of the second target; The animation information of the second target file is transformed spatially according to time by inserting the extracted rotation axis between the extracted faces using the plane information and the axis information of the second target extracted from the second target file, A first target file managed by the first target file management unit and a second target file generated by the second target animation generation unit by combining the second target file managed by the first target file management unit and the second target file managed by the second target file management unit, An image file execution unit for executing a synthetic image file generated by the synthetic image file generation unit by animation, It characterized in that it comprises.

또한, 본 발명은, 웹상에서 상품과 상기 상품을 포장하는 포장상자의 3차원 합성영상을 제공하기 위한 상품과 포장상자의 3차원 합성영상 생성 방법으로서, 제1타켓 데이터베이스에 저장된 복수의 상품으로부터 선택된 상품인 제1타켓에 대한 3차원 모델 데이터의 제1타켓 파일을 불러오는 제1단계와, 제2타켓 데이터베이스에 저장된 복수의 포장상자로부터 선택된 포장상자인 제2타켓에 대한 웹에서 편집가능한 파일인 제2타켓 파일을 불러오는 제2단계와, 상기 제2타켓 데이터베이스에 저장된 상기 제2타켓의 전개도의 선분을 분석하여 상기 제2타켓의 면정보와 축정보를 추출하는 제3단계와, 추출된 상기 제2타켓의 면정보와 축정보를 이용하여, 추출된 면들 사이에 추출한 회전축을 삽입하고, 상기 제2타켓 파일에 애니메이션 정보를 입력하여 시간에 따라 공간적으로 변형되는 제2타켓 파일의 애니메이션 객체를 생성하는 제4단계와, 상기 제1타켓 파일과 상기 애니메이션 객체가 생성된 제2타켓 파일을 결합하여 합성영상 파일을 생성하는 제5단계와, 상기 합성영상 파일을 애니메이션으로 실행하는 제6단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method for generating a three-dimensional composite image of a product and a packaging box for providing a three-dimensional composite image of a product and a packaging box for packing the product on a web, A first target file of three-dimensional model data for a first target, which is a product, and a second target file, which is a web-editable file for a second target that is a packing box selected from a plurality of packing boxes stored in a second target database, A third step of extracting face information and axis information of the second target by analyzing a line segment of the developed view of the second target stored in the second target database, The target rotation axis is inserted between the extracted faces using the plane information and the axis information of the target 2 and the animation information is input to the second target file, A fourth step of creating an animation object of a second target file that is spatially deformed; a fifth step of creating a composite image file by combining the first target file and the second target file in which the animation object is generated; And a sixth step of animating the composite image file.

본 발명의 상품과 포장상자의 3차원 합성영상 생성 시스템 및 방법에 의하면, 사용자는 웹상에서 제공되는 상품 및 포장상자의 영상을 회전시키거나, 축소 또는 확대시키거나, 이동시키는 등의 시뮬레이션을 통해 상품 및 포장상자의 자세한 형태를 사전에 확인할 수 있다.According to the system and method for generating a three-dimensional composite image of a product and a packaging box of the present invention, a user can perform a simulation of a product and a package box provided on the web through a simulation such as rotating, And detailed form of packing box can be confirmed in advance.

또한, 본 발명의 상품과 포장상자의 3차원 합성영상 생성 시스템 및 방법에 의하면, 사용자는 웹상에서 제공되는 상품및 포장상자에 대해 태그 기능을 활용하여 상품 및 포장상자의 각 구성요소의 특징 및 기능을 사전에 확인할 수 있다.In addition, according to the system and method for generating three-dimensional synthetic images of a product and a packaging box of the present invention, a user can use a tag function for a product and a packaging box provided on the web, Can be confirmed in advance.

또한 본 발명의 상품과 포장상자의 3차원 합성영상 생성 시스템 및 방법에 의하면, 사용자는 상품과 포장상자가 결합된 상태에 대한 3차원 합성영상 및 포장상자의 2차원 전개도의 각 면이 순차적으로 접혀 3차원 형태의 포장상자로 생성되는 과정을 시뮬레이션해 보거나, 생성된 3차원 형태의 상품과 포장상자가 결합된 합성영상을 회전시키거나, 축소 또는 확대시키거나, 이동시키는 등의 시뮬레이션을 통해 상기 포장상자에 상품이 포장된 상태를 사전에 확인할 수 있다.In addition, according to the system and method for generating three-dimensional composite image of a product and a packaging box of the present invention, a user can sequentially fold a three-dimensional composite image of a state in which a product and a packaging box are combined and a two- It is possible to simulate the process generated by the three-dimensional packing box or to simulate the process of generating the three-dimensional packing box by performing simulation such as rotating, reducing, enlarging, You can check the status of the package in the box in advance.

도 1은 본 발명의 실시예에 따른 상품과 포장상자의 3차원 합성영상 생성 시스템의 구성을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 상품과 포장상자의 3차원 합성영상 생성 방법의 흐름도이다.
도 3은 위의 도 2에서 제2타켓 파일의 애니메이션 객체 생성 방법을 나타내는 흐름도이다
도 4는 본 발명의 실시예에 따른 제1타켓과 제2타켓의 합성과정을 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 제1타켓 파일과 제2타켓 파일의 매칭 방법를 설명하기 위한 것으로, (a)는 상기 제1타켓 파일의 객체에 생성한 가상면을 나타낸 것이고, (b)는 상기 제2타켓 파일의 객체에 생성한 가상면(30)을 나타낸 것이다.
도 6은 본 발명의 실시예에 따른 영상표시부에 표시되는 영상을 나타낸 도면으로, 도 6a는 복수의 상품들이 리스트 형태로 표시되는 것을 예시적으로 나타낸 것이고, 도 6b는 위의 도 6a에서 제1타켓으로 선택된 상품의 영상을 나타낸 것이고, 도 6c는 다양하게 분류된 복수의 포장상자를 제2타켓으로 선택할 수 선택창을 나타낸 것이고, 도 6d는 상기 제 타켓으로 선택된 포장상자의 크기를 지정할 수 있는 치수 입력창을 나타낸 것이고, 도 6e는 상기 제1타켓과 제2타켓이 합성하는 일련의 애니메이션 과정 중 일부를 표시한 것이다.
도 7은 본 발명의 실시예에 따른 태그모듈과 회전모듈이 함께 실행되어 상기 영상표시부에 표시되는 것을 나타낸 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a system for generating a three-dimensional composite image of a product and a packaging box according to an embodiment of the present invention.
2 is a flowchart of a method for generating a three-dimensional composite image of a product and a packaging box according to an embodiment of the present invention.
FIG. 3 is a flowchart illustrating a method of generating an animation object of a second target file in FIG. 2
4 is a view illustrating a process of combining a first target and a second target according to an embodiment of the present invention.
FIG. 5 illustrates a method of matching a first target file and a second target file according to an embodiment of the present invention. FIG. 5 (a) shows a virtual plane generated in an object of the first target file, Represents a virtual plane 30 generated in the object of the second target file.
6A and 6B illustrate an image displayed on a video display unit according to an embodiment of the present invention. FIG. 6A illustrates an example of displaying a plurality of products in a list form, and FIG. FIG. 6C shows a selection window in which a plurality of differently packed boxes are selected as a second target, FIG. 6D is a view showing an image of a selected item as a target, FIG. 6E shows a part of a series of animation processes synthesized by the first target and the second target. FIG.
FIG. 7 is a view showing that the tag module and the rotation module according to the embodiment of the present invention are executed together and displayed on the image display unit.

이하에서, 본 발명의 상품과 포장상자의 3차원 합성 생성 시스템 및 방법에 대한 바람직한 실시예에 대하여, 첨부된 도면을 참조하여 상세히 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of a three-dimensional synthetic generation system and method of a product and a packaging box of the present invention will be described in detail with reference to the accompanying drawings.

이하에서, 도면들 중 참조번호 및 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들로 나타내며, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.Hereinafter, reference numerals and like elements in the drawings will be denoted by the same reference numerals and symbols as possible, even if they are shown in different drawings, and detailed descriptions of related known functions or configurations do not omit the gist of the present invention The detailed description thereof will be omitted.

또한, 본 발명에 있어서, "제1타켓"은 사용자가 선택하여 포장하고자 하는 상품을 의미하고, "제2타켓"은 상기 상품을 포장하기 위해 사용자가 선택한 포장상자를 의미한다. 예를 들어, 사용자가 선택한 사과와 그 사과를 포장하기 위한 포장상자를 선택하여 상기 사과와 포장상자의 합성파일 영상을 생성하는 경우, 상기 사과는 제1타켓에 해당하고, 상기 사과를 포장하는 포장상자는 제2타켓에 해당한다.In the present invention, the "first target " means a product to be selected and packaged by the user, and the" second target " means a packing box selected by the user to package the product. For example, when a user selects an apple and a packaging box for packing the apple to generate a composite file image of the apple and the packaging box, the apple corresponds to the first target, The box corresponds to the second target.

다만, 본 발명에 있어서, 구성요소의 명칭에 "제1타켓" 또는 "제2타켓"이라는 용어를 포함하는 경우, 상기 "제1타켓" 또는 "제2타켓"은 사용자에 의해 선택된 상품 또는 포장상자를 의미할 수도 있고, 사용자에 의해 선택되기 전이라도 사용자의 선택가능성이 있는 상품군(群) 또는 포장상자군(群)을 의미할 수도 있다. However, in the present invention, when the name of a component includes the term "first target" or "second target", the "first target" or "second target" May mean a box or a group of items or a group of boxes that may be selected by the user before being selected by the user.

도 1에 도시한 바와 같이, 본 발명에 의한 상품과 포장상자의 3차원 합성영상 생성 시스템은 제1타켓 데이터베이스(110), 제1타켓 파일관리부(100), 제2타켓 데이터베이스(210), 제2타켓 파일관리부(200), 제2타켓 개체 추출부(300), 제2타켓 애니메이션 생성부(400), 합성영상 파일 생성부(500), 영상 파일 실행부(600) 및 영상표시부(700)를 포함한다.1, a three-dimensional composite image generation system for a product and a packaging box according to the present invention includes a first target database 110, a first target file management unit 100, a second target database 210, A second target object extraction unit 300, a second target animation generation unit 400, a composite image file generation unit 500, an image file execution unit 600, and a video display unit 700, .

상기 제1타켓 데이터베이스(110)는, 웹상에서 사용자에게 제공되는 상기 복수의 상품들에 대한 정보를 포함하며, 상기 복수의 상품들의 입체적 형상에 대한 정보는 3차원 객체파일로 저장하고 있다.The first target database 110 includes information on the plurality of products provided to the user on the web, and information on the three-dimensional shape of the plurality of products is stored as a three-dimensional object file.

따라서, 상기 복수의 상품들에 대한 각각의 3차원 객체파일을 생성하는 방법에 대해, 하나의 상품을 대상으로 하여 설명한다.Therefore, a method of generating each three-dimensional object file for the plurality of products will be described with respect to one product.

즉, 상기 상품에 대한 3차원 객체파일을 생성하기 위하여, 상기 상품을 중심으로 소정의 간격으로 설치된 복수 개의 카메라에 의해 상기 상품에 대한 3차원 영상을 획득한다. That is, in order to generate a three-dimensional object file for the goods, a three-dimensional image of the goods is acquired by a plurality of cameras installed at predetermined intervals around the goods.

구체적으로, 상기 복수 개의 카메라들은 상기 상품의 상/하, 전/후, 좌/우에 따른 모든 면에 대한 영상을 획득할 수 있도록, 상기 상품을 중심으로 원을 그리며 일정한 간격으로 설치된다. Specifically, the plurality of cameras are installed at regular intervals in a circle around the product so as to acquire images of all the faces according to the up / down, front / rear, left / right of the goods.

즉, 상기 상품의 전/후, 좌/우측 영상을 획득하기 위하여, 복수의 카메라가 상기 상품을 중심으로 카메라와 카메라 사이를 일정 간격(예를 들어, 18도 간격으로 하여 20대의 카메라)으로 하여 설치한다. 또한, 상기 상품의 상/하측 영상을 획득하기 위하여, 상기 상품을 중심으로 상측 방향 및 하측 방향에 일정 간격으로 복수 개의 카메라를 설치한다. That is, in order to acquire left and right images before and after the product, a plurality of cameras are arranged at regular intervals (for example, 20 cameras at intervals of 18 degrees) between the camera and the camera, Install it. Further, in order to acquire upper and lower images of the goods, a plurality of cameras are installed at regular intervals in the upward and downward directions with respect to the goods.

이때, 상기 카메라들의 렌즈 각도는 상기 상품의 부피에 따라 자동으로 설정될 수 있고, 상기 상품의 형태(굴곡, 함몰 등)에 따라 렌즈 각도가 자동으로 조절될 수 있도록 하는 것이 바람직하다. 또한, 상기 상품의 3차원 영상을 획득하기 위한 조명 설정이 자동으로 이루어질 수 있도록 하는 것이 바람직하며, 또한 상기 설치된 카메라들이 빛의 영향을 받지 않도록 단 한 번의 촬영으로 상기 상품에 대한 영상을 획득할 수 있도록 하는 것이 바람직하다. At this time, the lens angle of the cameras may be automatically set according to the volume of the product, and the lens angle may be automatically adjusted according to the shape (curvature, depression, etc.) of the product. In addition, it is preferable that the illumination setting for acquiring the three-dimensional image of the product is automatically performed, and the image of the product can be acquired by one shot so that the installed cameras are not affected by the light .

이와 같이, 복수의 카메라로 촬영하여 획득된 복수의 3차원 영상들은 컨트롤러에 의해 미리 설정된 기준에 따라 순차적으로 정렬된다.As described above, a plurality of three-dimensional images obtained by photographing with a plurality of cameras are sequentially arranged according to a preset reference by the controller.

다음으로, 상기 복수 개의 영상들은 3D 모델링 프로그램을 이용하여 3차원 모델 데이터의 객체파일로 생성될 수 있다. 즉, 3D 모델링 프로그램에서는 획득된 영상들과 복수의 카메라들 각각이 상기 상품을 촬영한 위치에 따른 정보들을 이용하여, 적어도 하나의 카메라와 상기 적어도 하나의 카메라에 대응하는 적어도 하나의 상품의 영상 간의 거리 및 각도를 계산하여 3차원 모델 데이터의 객체 파일을 생성할 수 있다. 이때, 상기 생성된 3차원 모델 데이터의 객체 파일의 텍스처 색상은 이미지 파일의 픽셀에 따른 색상값으로 정해질 수 있다.Next, the plurality of images may be generated as an object file of three-dimensional model data using a 3D modeling program. That is, in the 3D modeling program, the acquired images and the plurality of cameras each use the information according to the position at which the product is photographed, to generate at least one image of at least one product corresponding to at least one camera The object file of the three-dimensional model data can be generated by calculating the distance and the angle. At this time, the texture color of the object file of the generated three-dimensional model data can be determined as a color value according to the pixel of the image file.

또한, 상기 제1타켓 데이터베이스(110)는 다양한 상품들을 카테고리별로 분류하고, 상기 상품들에 관련된 데이터, 예를 들어, 각 상품의 크기, 질감, 색상에 대한 데이터, 각 상품을 구성하는 구성요소에 관련된 정보 및 기능에 관한 데이터를 포함한다.In addition, the first target database 110 classifies various commodities by category, and stores data related to the commodities, for example, data on the size, texture, color of each commodity, And related data and functions.

따라서, 후술하는 바와 같이, 사용자가 웹상에서 제공되는 복수 개의 상품 중 선택하고자 하는 상품을 제1타켓으로 선택하면, 상기 제1타켓 파일 관리부(100)는 사용자에 의해 선택된 상기 제1타켓에 대한 3차원 모델 데이터의 제1타켓 파일을 불러오게 되는데, 이때 상기 제1타켓 파일은 상기 제1타켓 데이터베이스(110)로부터 불러온 상기 제1타켓에 관련된 데이터를 포함하게 된다.Accordingly, as described later, when a user selects a product to be selected from among a plurality of products provided on the web as a first target, the first target file management unit 100 determines that the first target The first target file of the 3D model data includes the data related to the first target retrieved from the first target database 110. In this case,

다음으로, 상기 제1타켓 파일 관리부(100)는 사용자로부터 선택된 상품인 상기 제1타켓에 대한 3차원 모델 데이터의 제1타켓 파일을 관리한다. 여기서, 상기 제1타켓은 웹상에서 제공되는 복수의 상품들 중 사용자가 선택한 적어도 하나의 상품이고, 상기 제1타켓 파일은 제1타켓의 3차원 객체파일로서, 제1타켓을 3차원 이미지로 표현하는 3차원 모델 데이터인 3차원 벡터 포맷 파일일 수 있다.Next, the first target file management unit 100 manages the first target file of the three-dimensional model data for the first target, which is a product selected by the user. Here, the first target is at least one product selected by a user from among a plurality of products provided on the web, the first target file is a three-dimensional object file of the first target, the first target is a three- Dimensional model data, which is a three-dimensional model data.

또한, 상기 제1타켓 파일은 상기 제1타켓의 이미지를 포함하는 3차원 벡터 포맷 파일로서, 맵핑 가능한 좌표를 포함하고, 다른 3차원 간 호환데이터로 사용 가능한 OBJ 파일일 수 있다. 예를 들어, 제1타켓으로 선택된 사과(상품)를 3차원 벡터 포맷 파일로 나타내는 OBJ 파일은 상기 제1타켓 파일 관리부(100)에 의해 구현될 수 있다. In addition, the first target file may be a three-dimensional vector format file including an image of the first target, and may be an OBJ file including coordinates that can be mapped and usable as other three-dimensional compatible data. For example, an OBJ file representing a selected apple (product) as a first target in a three-dimensional vector format file may be implemented by the first target file management unit 100.

또한, 상기 제1타켓 파일 관리부(100)는 상기 제1타켓의 적어도 하나의 구성요소에 관련된 적어도 하나의 정보 및 기능들을 검색할 수 있도록 태그하여 표시할 수 있다.In addition, the first target file management unit 100 may tag and display at least one information and functions related to at least one component of the first target so that they can be searched.

다음으로, 상기 제2타켓 데이터베이스(210)는 3차원 형태의 포장상자들에 대하여 포장상자의 버전, 포장상자의 인덱스 아이디, 포장상자의 크기 및 원지 종류, 포장상자를 구성하는 각 면의 좌표 정보, 축 정보, 바닥면 정보, 및 포장상자의 각 면의 디자인 정보(예를 들어, 질감, 색상 등) 등을 포함한다. 여기서, 회전에 관련된 축은, 포장상자의 전개도를 이루고 있는 면들 중 각 면의 경계를 이루고 있는 선분을 의미한다.Next, the second target database 210 stores the version of the packaging box, the index ID of the packaging box, the size of the packaging box and the type of paper, the coordinate information of each side constituting the packaging box Axis information, floor information, and design information (e.g., texture, color, etc.) of each side of the packaging box. Here, the axis related to the rotation means a line segment forming the boundary between the respective surfaces of the surfaces forming the developed view of the packaging box.

또한, 상기 제2타켓 데이터베이스(210)는 각 포장상자에 대한 전개도의 레이아웃과 그 전개도의 장, 폭, 고의 규격정보, 각 면의 인덱스 아이디 및 그 면들이 위치할 좌표 정보를 포함하는 전개도 등록정보가 저장되어 있다. 예를 들어, 폭 50mm, 장 70mm, 고 30mm를 갖는 직사각 기둥형의 포장상자를 펼쳐진 전개도로 본다면 50mm X 70mm의 면 2개, 70mm X 30mm의 면 2개, 50mm X 30mm의 면 2개로 구성되고, 각 면에 대한 고유한 인덱스 아이디와 각 면이 위치할 좌표 정보가 저장되어 있는 것이다.In addition, the second target database 210 stores the developed layout including the layout of the developed layout for each packaging box, the length and width of the developed layout, the standard information of the developed layout, the index ID of each face, Information is stored. For example, if a rectangular box having a width of 50 mm, a length of 70 mm and a height of 30 mm is seen as a developed view, it is composed of two faces of 50 mm X 70 mm, two faces of 70 mm x 30 mm, and two faces of 50 mm x 30 mm , A unique index ID for each face, and coordinate information on which each face is to be stored.

또한, 상기 제2타켓 데이터베이스(210)에는 3차원 형태의 포장상자들을 다양한 카테고리로 분류하여 저장하고 있는 것이 바람직하다. 예를 들어, 기본형, 변형 등으로 구성될 수 있고, 삼각형, 사각형, 오각형 등의 면체 중심으로 구성될 수도 있으며, 손잡이의 유무 등에 따라 분류될 수도 있다. 이렇게 다양한 카테고리별로 분류하여 사용자들에게 제시함으로써 사용자들이 자신들이 생성하고자 하는 포장상자를 용이하게 선택할 수 있게 된다.Also, it is preferable that the second target database 210 stores three-dimensional packing boxes classified into various categories. For example, it may be composed of a basic type, a transformation, and the like, and may be constituted by a center of a triangle, a square, a pentagon, or the like, and may be classified according to the presence or absence of a handle. By classifying the contents into various categories and presenting them to users, it is possible for users to easily select a packing box to be created by them.

또한, 상기 제2타켓 데이터베이스(210)는 미리 생성되어 있는 다양한 형태의 포장상자들에 대한 패키지 정보뿐만 아니라, 본 발명의 3차원 합성영상 생성 시스템을 이용하여 사용자들이 생성한 포장상자들에 대한 정보들이 저장될 수 있다.In addition, the second target database 210 may store not only package information on various types of packing boxes generated in advance, but also information on packing boxes created by users using the three-dimensional synthetic image generating system of the present invention Can be stored.

다음으로, 상기 제2타켓 파일 관리부(200)는 사용자로부터 선택된 상기 제2타켓에 대한 웹에서 편집 가능한 제2타켓 파일을 관리한다. 여기서, 상기 제2타켓은 웹상에서 제공되는 복수의 포장상자 중 사용자가 선택한 하나의 포장상자이고, 제2타켓 파일은 상기 제2타켓을 이미지로 표현하는 2차원 영상을 3차원 영상으로 구현할 수 있다.Next, the second target file management unit 200 manages a second target file that can be edited on the Web for the second target selected by the user. Here, the second target may be a packaging box selected by a user from among a plurality of packing boxes provided on the web, and the second target file may embody a two-dimensional image expressing the second target as an image in a three-dimensional image .

또한, 상기 제2타켓 파일 관리부(200)에서 관리되는 상기 제2타켓 파일은 상기 제2타켓의 이미지를 포함하는 2차원 벡터 그래픽을 표현하기 위한 XML 기반의 파일형식인 SVG(Scalable Vector Graphics) 파일로 구현될 수 있다. 예를 들어 사과를 포장하는 포장상자의 2차원 영상을 3차원으로 변환하는 SVG 파일은 상기 제2타켓 파일 관리부(200)에서 구현될 수 있다. The second target file managed by the second target file manager 200 may be a Scalable Vector Graphics (SVG) file, which is an XML-based file format for representing a two-dimensional vector graphic including an image of the second target . ≪ / RTI > For example, an SVG file for converting a two-dimensional image of a packaging box packaging apples to three-dimensional images can be implemented in the second target file management unit 200.

다음으로, 상기 제2타켓 개체 추출부(300)는 복수의 포장상자 중 사용자로부터 선택된 상기 제2타켓의 전개도의 선분을 분석하고 상기 제2타켓 데이터베이스(210)로부터 상기 제2타켓의 면정보와 축정보를 추출하여, 추출된 면정보와 축정보를 제2타켓 애니메이션 생성부(400)로 전송한다.Next, the second target entity extracting unit 300 analyzes the line segment of the developed target of the second target selected from the user among the plurality of packing boxes, extracts the plane information of the second target from the second target database 210 Axis information, and transmits the extracted plane information and axis information to the second target animation generation unit 400.

다음으로, 상기 제2타켓 애니메이션 생성부(400)는, 상기 제2타켓 개체 추출부(300)에서 추출한 상기 제2타켓의 면정보와 축정보를 이용하여, 추출된 면들 사이에 추출한 회전축을 삽입하고, 상기 제2타켓 파일에 애니메이션 정보를 입력하여 시간에 따라 공간적으로 변형되는 상기 제2타켓 파일의 애니메이션 객체를 생성한다. 여기서, 애니메이션은 타켓을 표현하는 이미지를 연속적 움직임으로 표현해내는 동작을 의미한다. Next, the second target animation generation unit 400 may insert the rotation axis extracted between the extracted faces by using the face information and the axis information of the second target extracted by the second target object extraction unit 300 And inputs animation information to the second target file to generate an animation object of the second target file that is spatially transformed with time. Here, animation refers to an operation of expressing an image expressing a target in a continuous motion.

또한, 상기 제2타켓 애니메이션 생성부(400)는 상기 제2타켓 파일의 중심을 이루는 축의 회전과 제2타켓 파일의 이동을 위해, 영상 보간자(interpolator)를 결정하고, 결정된 영상 보간자를 이용하여, 사용자에 의해 선택된 상기 제2타켓의 전개도의 구조 및 형태에 따라 전개도가 조립되는 시점별 애니메이션 객체를 생성한다.In addition, the second target animation generation unit 400 determines an interpolator for rotation of the axis that is the center of the second target file and movement of the second target file, and uses the determined image interpolator , And creates an animation object for each viewpoint at which the developed view is assembled according to the structure and form of the developed view of the second target selected by the user.

상기 영상 보간자는, 상기 제2타켓 파일에 대한 애니메이션 동작이 수행되는 동안의 횟수 및 속도를 조절하거나 애니메이션 동작의 시작과 종료시의 효과를 추가하여 영상을 보간한다. 예를 들어, 상기 제2타켓 파일의 위치가 오른쪽으로 이동하는 애니메이션 동작이 수행되는 경우, 이동 속도를 점점 빠르게 하거나 점점 느리게 할 수 있고, 제2타켓 파일의 복수개의 객체를 동시에 동작할 수 있다.The image interpolator interpolates the image by adjusting the number and speed during the animation operation of the second target file, or by adding effects at the start and end of the animation operation. For example, when an animation operation in which the position of the second target file moves to the right is performed, the moving speed can be increased or decreased gradually, and a plurality of objects of the second target file can be simultaneously operated.

또한, 상기 제2타켓 애니메이션 생성부(400)는 영상 보간자를 이용하여, 애니메이션 동작을 실행하기 위해 시점에 따른 애니메이션 동작을 수행하는 애니메이션 객체를 생성한다. 이때, 애니메이션 객체는 일 예로 시점에 따른 영상의 투명도를 나타내는 알파값을 적용한 객체로 구현될 수 있다.In addition, the second target animation generation unit 400 generates an animation object that performs an animation operation according to a viewpoint in order to execute an animation operation using an image interpolator. In this case, the animation object may be implemented as an object to which an alpha value indicating transparency of an image according to a viewpoint is applied.

또한, 상기 제2타켓 애니메이션 생성부(400)에 의해 애니메이션 객체가 생성된 제2타켓 파일은 상기 제2타켓 파일 관리부(200)에 의해 관리될 수 있다.The second target file in which the animation object is generated by the second target animation generation unit 400 may be managed by the second target file management unit 200. [

다음으로, 합성 영상파일 생성부(500)는, 상기 제2타켓 애니메이션 생성부(400)에 의하여 상기 제2타켓 파일의 애니메이션 객체가 생성되면, 상기 제1타켓 파일과 애니메이션 객체가 생성된 상기 제2타켓 파일을 결합한 합성영상 파일을 생성한다.Next, When the animation object of the second target file is generated by the second target animation generation unit 400, the generation unit 500 generates a composite image by combining the first target file and the second target file in which the animation object is generated Create a video file.

상기 제1타켓 파일과 애니메이션 객체가 생성된 상기 제2타켓 파일을 결합한 합성영상 파일의 생성에 대해, 도 4 및 도 5를 참조하여 설명한다.The generation of the composite image file in which the first target file and the second target file in which the animation object is generated will be described with reference to FIGS. 4 and 5. FIG.

먼저, 도 4는 본 발명의 제1타켓과 제2타켓의 합성과정을 나타낸 도면으로, 도 4의 (a)는 사용자로부터 선택된 상기 제1타켓(10)의 영상을 나타낸 것이고, (b)는 사용자로부터 선택된 상기 제2타켓(20)의 전개도가 펼쳐진 상태에서 상기 제1타켓(10)과 매칭하는 과정을 나타낸 것이며, (C)는 상기 제1타켓(10)과 제2타켓(20)이 매칭되어 합성된 상태를 나타낸 것이다.4 (a) and 4 (b) illustrate an image of the first target 10 selected by the user, and FIG. 4 (b) (C) shows a process of matching the first target (10) and the second target (20) with the first target (10) in a deployed state of the second target And a state in which they are matched and synthesized.

이때, 상기 제1타켓 파일과 제2타켓 파일의 매칭은 각각의 미리 저장되어 있는 벡터좌표를 이용하여 각각의 벡터좌표간 특징점을 정합하는 맵핑을 통해 매칭되는데, 도 5를 참조하여, 상기 제1타켓 파일에 가상면을 생성하고, 또한 제2타켓 파일에 가상면을 생성하여 상기 제1타켓 파일과 제2타켓 파일을 매칭하는 방법에 대해 설명한다.In this case, the matching of the first target file and the second target file is performed by mapping the feature points between respective vector coordinates using previously stored vector coordinates. Referring to FIG. 5, A method of creating a virtual plane in a target file and creating a virtual plane in the second target file to match the first target file and the second target file will be described.

도 5는 상기 제1타켓 파일과 제2타켓 파일의 각각의 객체에 가상면을 도시한 도면으로, (a)는 상기 제1타켓 파일의 객체에 생성한 가상면(30)을 나타낸 것이고, (b)는 제2타켓 파일의 객체에 생성한 가상면(30)을 나타낸 것이다.FIG. 5 is a view showing a virtual plane for each object of the first target file and the second target file, wherein (a) shows a virtual plane 30 generated in the object of the first target file, and b) shows the virtual surface 30 generated in the object of the second target file.

먼저, 도 5에 도시된 바와 같이, 상기 제1타켓 파일과 제2타켓 파일의 매칭을 위해 상기 제1타켓 파일과 제2타켓 파일 각각의 객체에 가상면(30)을 생성한다. First, as shown in FIG. 5, a virtual plane 30 is generated for each of the first and second target files in order to match the first target file and the second target file.

상기 가상면(30)은 4개의 외곽선에 의하여 정의될 수 있는 하나의 면으로서, 상기 가상면 중 일 영역 특히 중심점에는 2축 내지는 3축의 기준선이 결정될 수 있다. 여기에서 기준선은 타켓이 위치하는 위치, 공간적인 포즈, 방향을 정의하기 위한 좌표값을 갖는 것으로서, 상기 제2타켓과 같은 포장상자의 경우, 상기 가상면에 수직인 축(Z축)을 제1축으로 정의할 수 있고, 서로 마주하고 평행하는 외곽선과 평행한 방향의 축(X축)을 제2축으로 정의할 수 있으며, 상기 제2축과 수직인 축(Y축)을 제3축으로 정의할 수 있다. The imaginary plane 30 can be defined by four outlines, and one of the imaginary planes, particularly the center point, can be defined as a two-axis or three-axis baseline. Here, the reference line has a coordinate value for defining a position where the target is located, a spatial pose, and a direction. In the case of a packaging box such as the second target, the axis (Z-axis) (X-axis) parallel to an outline parallel to and facing each other can be defined as a second axis, and an axis perpendicular to the second axis (Y-axis) can be defined as a third axis Can be defined.

또한, 상기 제1타켓과 같이 형태가 일정치 않은 객체에 대한 가상면은 가상면에 수직인 축을 제1축(Z축)으로 정의할 수 있고, 가상면을 생성하고자 하는 타켓의 폭과 길이를 고려하여, 상기 폭 또는 길이의 중앙의 지점을 계산하여, 계산된 중앙에 위치하는 임의의 방향의 축(X축)을 제2축으로 정의할 수 있으며, 상기 제2축과 수직인 축(Y축)을 제3축으로 정의할 수 있다. In addition, an imaginary plane for an object having a uniform shape such as the first target can define an axis perpendicular to a virtual plane as a first axis (Z axis), and a width and a length of a target to be created (X-axis) in a predetermined center positioned at the center can be defined as a second axis, and an axis Y (Y) perpendicular to the second axis can be defined by calculating a center point of the width or length, Axis) can be defined as a third axis.

상기와 같은 가상면의 기준선의 생성에 의해 상기 제1타켓 및 제2타켓의 공간적 위치를 특정할 수 있다.The spatial position of the first target and the second target can be specified by generating the reference line of the virtual plane.

다음으로, 상기 제1타켓 파일 및 제2타켓 파일 각각의 객체에 생성된 가상면의 중심점 간 매칭을 이용하여, 상기 제1타켓 파일과 제2타켓 파일을 결합할 수 있다.Next, the first target file and the second target file can be combined using the matching between the center points of the virtual faces generated in the objects of the first target file and the second target file.

또한, 도 5의 (b)의 상기 제2타켓 파일의 경우, 상기 제2 타켓인 포장상자를 구성하는 복수 개의 면 중 하나의 면에 하나의 가상면(30)이 생성되는 것을 도시하고 있으나, 포장상자를 구성하는 복수 개의 면 중 하나의 면에 복수 개의 가상면(30)을 생성하여, 상기 복수 개의 가상면(30)에 객체를 달리하는 복수 개의 제1타켓 파일을 매칭할 수 있다. In the case of the second target file of FIG. 5 (b), one imaginary plane 30 is generated on one of the plurality of planes constituting the second target package. However, A plurality of virtual faces 30 may be generated on one of the plurality of faces constituting the packaging box so that a plurality of first target files different from each other on the plurality of virtual faces 30 may be matched.

즉, 상기 합성영상 파일 생성부(500)는 객체의 가로, 세로, 높이에 대한 최대공약수를 계산하여, 복수 개의 제1타켓 파일들과 상기 제1타켓 파일과 결합할 제2타켓 파일의 크기를 표현하는 좌표값을 갖고, 상기 각각의 좌표값을 고려하여, 상기 제2타켓 파일에 복수 개의 제1타켓 파일들을 위치시킬 수 있다.That is, the composite image file generation unit 500 calculates the greatest common divisor for the horizontal, vertical, and height of the object, and calculates a size of a second target file to be combined with the first target files and the first target file And a plurality of first target files may be located in the second target file in consideration of the respective coordinate values.

또한, 상기 합성영상 파일 생성부(500)는, 제2 타켓인 포장상자를 이루는 복수 개의 면 각각에 대응하는 복수 개의 가상면(30)을 생성할 수 있다. 이때, 가상면(30)은 상기 3개의 기준선인 제1축, 제2축 그리고 제3축을 통해 좌표값을 갖기 때문에, 포장상자가 조립되었을 때, 각 면들 사이의 거리, 높이 등 위치관계를 파악할 수 있다. 즉, 상기 가상면(30)은 객체 간 결합을 위하여 이용되기도 하지만, 제2타켓(20)에서 복수의 면들 간 위치관계를 파악하기 위해서도 이용될 수 있다.In addition, the composite image file generation unit 500 may generate a plurality of virtual planes 30 corresponding to a plurality of planes constituting a packaging box, which is a second target. At this time, since the imaginary plane 30 has coordinate values through the first axis, the second axis, and the third axis, which are the three reference lines, when the packaging box is assembled, the positional relationship such as the distance, . That is, the virtual plane 30 may be used for combining objects, but may also be used for grasping a positional relationship between a plurality of planes in the second target 20. [

다음으로, 상기 영상파일 실행부(600)는 상기 합성 영상파일 생성부(500)에서 상기 제1타켓 파일과 애니메이션 객체가 생성된 제2타켓 파일을 결합하여 생성된 합성 영상파일을 애니메이션으로 실행한다. 즉, 상기 영상파일 실행부(600)는 합성 영상파일을 상기 제1타켓과 제2타켓의 합성영상이 생성되기까지의 모든 과정에 대한 애니메이션 및 상기 제1타켓과 제2타켓의 합성영상으로 실행하여, 후술하는 영상표시부(700)를 통해 사용자에게 표시한다.Next, the image file execution unit 600 animates the composite image file generated by combining the first target file and the second target file in which the animation object is generated in the composite image file generation unit 500 . That is, the image file execution unit 600 executes an animation for all the processes until the composite image of the first target and the second target is generated and the composite image of the first target and the second target And displays it to the user through the video display unit 700, which will be described later.

또한, 상기 영상파일 실행부(600)는, 상기 제1타켓 파일을 3차원의 제1타켓 영상으로 실행하여 상기 영상표시부(700)를 통해 사용자에게 표시할 수 있고, 또한 상기 제2타켓 파일을 3차원의 제2타켓 영상으로 실행하여, 상기 영상표시부(700)를 통해 사용자에게 표시할 수 있다.In addition, the image file execution unit 600 may execute the first target file as a three-dimensional first target image and display the first target file to the user through the image display unit 700, Dimensional target image to be displayed to the user through the image display unit 700. [

또한, 상기 영상파일 실행부(600)는 상기 영상표시부(700)를 통해, 사용자에게 상기 제1타켓 영상, 상기 제2타켓 영상, 및 상기 제1타켓과 제2타켓의 합성영상(이하, "제1타켓 영상 등"이라 함.)에 대해, 회전기능, 이동기능, 축소/확대기능, 밝기조절기능, 돋보기기능 및 태그기능을 제공하기 위한 회전모듈, 이동모듈, 축소/확대모듈, 밝기조절모듈, 돋보기모듈 및 태그모듈을 포함한다.In addition, the image file execution unit 600 may display the first target image, the second target image, and a composite image of the first target and the second target (hereinafter, referred to as " A movement module, a zoom module, and a brightness control module for providing a rotation function, a movement function, a reduction / enlargement function, a brightness control function, a magnifier function, and a tag function for the first target image, Module, a magnifier module, and a tag module.

즉, 상기 회전모듈은 상기 제1타켓, 상기 제2타켓, 및 상기 제1타켓과 제2타켓의 합성된 형태를 확인할 수 있도록 상기 제1타켓 영상 등을 모든 방향에 대하여 회전기능을 실행하는 모듈이다.That is, the rotation module may include a module that performs a rotation function for all directions of the first target image and so on so that the combined shape of the first target, the second target, and the first target and the second target can be confirmed, to be.

또한, 상기 이동모듈은 상기 제1타켓 영상 등의 이동기능을 실행하고, 상기 축소/확대모듈은 제1타켓 영상 등을 전체적으로 확대하거나 축소기능을 실행하고, 상기 밝기조절모듈은 상기 제1타켓 영상 등의 밝기 조절기능을 실행하고, 상기 돋보기모듈 상기 제1타켓 영상 등의 일부분을 확대하는 확대기능을 실행하는 모듈이다.In addition, the moving module executes a moving function of the first target image and the like, and the reducing / enlarging module performs a function of enlarging or reducing the first target image as a whole, And performs magnification function for magnifying a part of the first target image or the like of the magnifying glass module.

또한, 상기 태그모듈은 상기 제1타켓 영상 등에 있어서, 상기 제1타켓 또는 상기 제2타켓을 구성하는 주요 구성요소에 태그를 표시하여 주요 구성요소의 정보(에를 들면, 재질, 규격, 사용방법 등)를 제공하는 모듈이다.In addition, the tag module displays a tag on the main constituent elements constituting the first target or the second target in the first target image or the like, so that the information of the main constituent elements (for example, material, specification, ).

특히, 상기 태그모듈은 다른 기능의 모듈과 함께 실행되는 것이 바람직하다. 예를 들어, 도 7은 태그모듈과 회전모듈이 함께 실행되어 상기 영상표시부(700)에 표시되는 것을 나타낸 것이다.In particular, the tag module is preferably implemented with modules of other functions. For example, FIG. 7 shows that the tag module and the rotation module are executed together and displayed on the image display unit 700.

즉, 후술하는 바와 같이, 사용자가 상기 영상표시부(700)에 표시된 다양한 상품들에 대한 리스트에서 하나의 상품을 제1타켓으로 선택하면, 도 7의 (a)에서 와 같이, 상기 제1타켓의 3차원 영상이 표시된다. That is, as described later, when a user selects one item as a first target from the list of various goods displayed on the image display unit 700, as shown in FIG. 7A, A three-dimensional image is displayed.

이때, 사용자가 상기 제1타켓의 구성요소들 중에서 정보를 얻고자 하는 구성요소를 지정하면, 도 7의 (b) 및 (c)에서 와 같이, 지정된 해당 구성요소가 전면으로 드러날 수 있도록 회전모듈에 의해 자동으로 회전한 후 해당 구성요소에 대한 정보가 태그에 의해 표시된다.In this case, when the user designates a component to which information is to be acquired from among the constituent elements of the first target, as shown in FIGS. 7B and 7C, The information about the corresponding component is displayed by the tag.

다음으로, 영상표시부(700)는 웹상에서 접속된 사용자 단말기의 표시부를 포함하는 것으로, 상기 영상파일 실행부(600)에 의해 실행되는 합성 영상파일의 애니메이션 영상, 상기 제1타켓의 영상 및 제2타켓의 영상을 표시할 수 있다.Next, the image display unit 700 includes a display unit of a user terminal connected on the web. The image display unit 700 includes an animation image of a composite image file executed by the image file execution unit 600, an image of the first target, The image of the target can be displayed.

따라서, 상기 영상표시부(700)는 사용자가 웹상에서 상기 제1타켓의 영상, 제2타켓의 영상 및 제1타켓과 제2타켓의 합성 영상파일의 애니메이션 영상을 제공받을 수 있는 프로그램인 뷰어를 포함할 수 있다.Therefore, the image display unit 700 includes a viewer that is a program that allows a user to receive an image of the first target, an image of the second target, and an animation image of a composite image file of the first target and the second target on the web can do.

또한, 상기 영상표시부(700)는, 상기 제1타켓 데이터베이스(110)에서 관리되는 다양한 상품들을 리스트 형태로 표시하여 제공할 수 있고, 상기 제2타켓 데이터베이스(210)에서 관리되는 다양한 종류의 포장상자 및 포장상자의 전개도를 표시하여 제공할 수 있다.In addition, the image display unit 700 may display various goods managed in the first target database 110 in a list form, and may display various types of packing boxes managed in the second target database 210, And a developed view of the packaging box.

즉, 상기 영상표시부(700)는, 도 6a에서 도시하는 바와 같이, 복수의 상품(10)들이 리스트 형태로 표시할 수 있으며, 사용자가 상기 영상표시부(700)에 표시된 복수의 상품(10) 리스트에서 하나의 상품을 제1타켓으로 선택하면, 도 6b에서 도시하는 바와 같이, 선택된 상기 제1타켓의 3차원 영상을 확인할 수 있도록 구현된다.That is, as shown in FIG. 6A, the image display unit 700 can display a plurality of products 10 in the form of a list, and when a user selects a plurality of products 10 displayed on the image display unit 700 6B, a 3D image of the selected first target can be confirmed as shown in FIG. 6B.

이때, 사용자는 마우스를 사용하거나 상기 영상표시부(700)의 화면상에 표시된 버튼부(100a)를 이용하여, 상기 제1타켓(10)을 모든 방향에 대하여 사용자가 회전하고자 하는 방향으로 회전하여 상기 제1타켓의 형태를 확인할 수 있다. 또한, 사용자는 상기 제1타켓을 표시부의 화면상에서 원하는 위치로 이동시키거나, 상기 제1타켓의 영상을 확대하거나 축소할 수 있으며, 상기 제1타켓의 배경에 대한 밝기를 조절할 수 있다. 또한, 사용자는 상기 제1타켓의 일부분을 확대하여 상세하게 확인할 수 있으며, 상기 제1타켓을 구성하는 주요 구성요소의 정보를 제공하는 태그(100b)로부터 상기 제1타켓에 대한 정보들을 상세하게 제공받을 수 있다. At this time, the user rotates the first target 10 in a direction in which the user rotates with respect to all directions using a mouse or a button unit 100a displayed on the screen of the image display unit 700, The type of the first target can be confirmed. In addition, the user can move the first target to a desired position on the screen of the display unit, enlarge or reduce the image of the first target, and adjust the brightness of the background of the first target. In addition, the user can enlarge and confirm a part of the first target, and provide detailed information on the first target from the tag 100b providing information of the main constituent elements constituting the first target Can receive.

또한, 상기 영상표시부(700)는, 도 6c에서 도시하는 바와 같이, 사용자가 선택하고자 하는 포장상자를 제2타켓으로 선택할 수 있도록 상기 제2타켓 데이터베이스(210)에 다양하게 분류되어 있는 3차원 형태의 포장상자를 선택창(W1)으로 표시하여 제공할 수 있다.As shown in FIG. 6C, the image display unit 700 may display a three-dimensional image in the second target database 210 so as to select a packaging box to be selected by the user as a second target, Can be provided by displaying the box W1 of the box W1.

상기 선택창(W1)에서 <기본형박스>는 제작된 포장 상자의 모형 이미지들 중에서 해당 상자를 선택할 수 있도록 표시한 것이고, <변형박스1>와 <변형박스2> 각각은 <기본형박스>에서 정의되지 않은 포장상자의 형태와 모양을 지정할 수 있도록 표시한 것이다.In the selection window W1, the &quot; basic box &quot; is displayed so that a corresponding box among the model images of the manufactured packaging box can be selected, and &quot; It is marked so that the shape and shape of the unpacked box can be specified.

또한, 상기 영상표시부(700)는, 사용자가 웹상에서 생성된 전개도에 적용될 디자인 작업을 수행하거나 전개도의 일부 구조를 수정할 수 있도록 생성된 2차원 전개도를 표시할 수 있으며, 도 6d에서 도시하는 바와 같이, 치수 입력창(W2)을 이용하여 포장상자의 크기를 간편하게 지정할 수도 있도록 표시하는 것이 바람직하다.In addition, the image display unit 700 may display a generated two-dimensional developed view so that a user can perform a design work to be applied to a developed view created on the web or modify a partial structure of the developed view. As shown in FIG. 6D, , It is preferable to display the size of the packaging box so that the size of the packaging box can be easily designated using the dimension input window W2.

또한, 상기 영상표시부(700)에서 제공되는 상기 합성 영상파일의 애니메이션 영상은, 상기 제2타켓의 전개도를 비롯해 상기 제2타켓의 보간자(interpolator)정보, 면 정보, 및 상기 제1타켓과 제2타켓에 관련한 모든 정보를 사용자가 확인할 수 있도록 제공되고, 상기 제1타켓과 제2타켓의 합성영상 파일이 생성되기까지의 모든 과정을 표시할 수 있다. In addition, the animation image of the composite image file provided by the image display unit 700 may include an expanded view of the second target, interpolator information of the second target, plane information, 2 is provided to allow the user to confirm all the information related to the target, and can display all processes until the composite image file of the first target and the second target is generated.

즉, 도 6e는 제1타켓(10)과 제2타켓(20)이 합성하는 일련의 애니메이션 과정 중 일부를 나타낸 도면으로, 상기 영상표시부(700)는, 도 6e에서 도시하는 바와 같이, 상기 제1타켓(10)과 제2타켓(20)이 합성하는 일련의 애니메이션 과정을 표시할 수 있다. 또한, 상기 영상표시부(700)에서는 상기 제1타켓(10)과 제2타켓(20)이 합성된 영상에 대해서도, 상기 제1타켓 영상에서 설명한 바 있는 회전기능, 이동기능, 축소/확대기능, 밝기 조절기능, 돋보기기능 및 태그에 의한 정보 제공 기능을 그대로 구현될 수 있다. 6E is a diagram showing a part of a series of animation processes synthesized by the first target 10 and the second target 20. As shown in FIG. 6E, the image display unit 700 includes the above- A series of animation processes synthesized by one target 10 and the second target 20 can be displayed. In addition, the image display unit 700 may also display the combined image of the first target 10 and the second target 20, such as a rotation function, a moving function, a reduction / enlargement function, Brightness control function, magnifying glass function, and information providing function by tag can be implemented as it is.

다음은, 상품과 포장상자의 3차원 합성영상 생성 시스템에 의한 상품과 포장상자의 3차원 합성영상 생성 방법에 대해 도 2 내지 3을 참조하여 설명한다.Next, a three-dimensional composite image generation method of a product and a packaging box by a three-dimensional composite image generation system of a product and a packaging box will be described with reference to FIGS.

도 2는 본 발명의 일 실시예에 따른 상품과 포장상자의 3차원 합성영상 생성 방법의 흐름도이고, 도 3은 위 도 2의 상품과 포장상자의 3차원 합성영상 생성 단계 중 제2타켓의 애니메이션 객체 생성 방법을 나타내는 흐름도이다,FIG. 2 is a flowchart illustrating a method of generating a three-dimensional composite image of a product and a packaging box according to an embodiment of the present invention. FIG. Fig. 2 is a flowchart showing an object creation method;

먼저, 사용자는 웹상에서 제공되는 복수 개의 상품 중 하나의 상품을 제1타켓으로 선택한다(S100).First, the user selects one of a plurality of products provided on the web as a first target (S100).

즉, 사용자는 웹상에서 상기 영상표시부(700)에 표시되는 복수의 상품 리스트 중에서 자신이 원하는 상품을 선택한다(도 6a 참조).That is, the user selects a desired product from a plurality of product lists displayed on the image display unit 700 on the web (see FIG. 6A).

이때, 사용자는 자신이 선택한 상품(제1타켓)을 클릭하여, 제1타켓의 3차원 영상을 확인할 수 있으며, 상기 제1타켓의 3차원 영상에서 제공하는 회전기능, 이동기능, 축소/확대기능, 밝기조절기능, 돋보기기능 및 태그에 의한 정보 제공 기능을 이용하여, 사용자는 선택된 제품이 자신이 원하는 제품인지를 확인할 수 있다(도 6b 참조).At this time, the user can check the three-dimensional image of the first target by clicking on the product (the first target) selected by the user, and the rotation function, the moving function, the reduction / enlargement function , The brightness control function, the magnifying glass function, and the tag providing function, the user can confirm whether the selected product is a desired product (refer to FIG. 6B).

특히, 본 발명에 있어서는, 도 7에 도시한 바와 같이, 사용자가 선택한 상품의 구성요소(부품)를 지정하면, 해당 구성요소가 전면으로 드러날 수 있도록 자동으로 회전한 후 해당 구성요소에 대한 정보가 태그에 의해 표시되기 때문에, 사용자가 해당 상품에 대한 사전정보가 없더라도, 충분한 정보를 획득한 후, 해당상품을 제1타켓으로 선택할 수 있다.Particularly, in the present invention, as shown in FIG. 7, when a component (component) of a product selected by the user is designated, the component is automatically rotated so as to be exposed to the front, Tag, the user can select the product as the first target after acquiring sufficient information even if the user does not have prior information on the product.

다음으로, 사용자는 웹상에서 제공되는 복수의 포장상자 중 상기 제1타켓에 적합한 하나의 포장상자를 제2타켓으로 선택한다(S200).Next, the user selects one of the plurality of packing boxes provided on the web as a second target suitable for the first target (S200).

즉, 사용자는 상기 영상표시부(700)에 표시되는 3차원 형태의 포장상자들 중에서 자신이 원하는 포장상자를 제2타켓으로 선택할 수 있다(도 6c 참조). 이때, 사용자는 상기 제2타켓의 구조나 크기에 대해 상기 제2타켓 데이터베이스(210)에 입력된 정보를 그대로 이용하거나, 사용자 자신이 원하는 규격으로 변경하여 입력할 수 있다(도 6d 참조).That is, the user can select a desired packaging box as a second target among the three-dimensional packaging boxes displayed on the image display unit 700 (see FIG. 6C). At this time, the user can directly use the information input to the second target database 210 with respect to the structure and size of the second target, or can change the specification to a desired standard (see FIG. 6D).

다음으로, 상기 제1타켓 파일 관리부(100)는 사용자로부터 선택된 제1타켓에 대한 제1타켓 파일을 불러오고(S300), 상기 제2타켓 파일 관리부(200)는 사용자로부터 선택된 제2타켓에 대한 제2타켓 파일을 불러온다(S400). 이때, 상기 제1타켓 파일은 상기 제1타켓을 이미지로 표현하는 3차원 모델 데이터이고, 상기 제2타켓 파일은 상기 제2타켓에 대한 웹에서 편집 가능한 파일이다. Next, the first target file management unit 100 loads a first target file for the first target selected by the user (S300), and the second target file management unit 200 reads the first target file for the second target selected by the user The second target file is loaded (S400). Here, the first target file is three-dimensional model data representing the first target as an image, and the second target file is a web editable file for the second target.

다음은, 상기 제2타켓 파일의 애니메이션 객체를 생성에 관하여는, 도 3을 참조하여 설명한다. 도 3은 상기 제2타켓 파일의 애니메이션 객체 생성과정을 나타내는 흐름도이다,Next, the generation of the animation object of the second target file will be described with reference to FIG. 3 is a flowchart illustrating an animation object generation process of the second target file,

먼저, 상기 제2타켓 개체 추출부(300)는, 사용자로부터 선택된 상기 제2타켓의 스케일를 추출하고(S410), 추출된 상기 제2타켓의 스케일 정보를 바탕으로 3차원상의 스케일을 계산한다(S420).First, the second target entity extraction unit 300 extracts a scale of the second target selected by the user (S410), and calculates a three-dimensional scale based on the extracted scale information of the second target (S420 ).

즉, 상기 제2타켓 개체 추출부(300)는 상기 제2타켓 데이터베이스(210)로부터 사용자가 선택한 상기 제2타켓의 전개도 등록정보와 사용자가 입력한 규격정보를 바탕으로 상기 제2타켓의 전개도를 분석하여 상기 제2타켓의 스케일를 추출한 후, 추출된 상기 제2타켓의 스케일 정보를 바탕으로 상기 제2타켓의 3차원상의 스케일을 계산한다. 예를 들어, 상기 제2타켓의 2차원 영상에서의 도면 1mm에 따른 3차원 좌표상 스케일을 계산한다. That is, the second target entity extraction unit 300 extracts the developed view of the second target from the second target database 210 based on the developed map registration information of the second target selected by the user and the standard information inputted by the user The scale of the second target is extracted and the scale of the second target is calculated on the basis of the extracted scale information of the second target. For example, a three-dimensional coordinate scale corresponding to 1 mm in the two-dimensional image of the second target is calculated.

다음으로, 상기 제2타켓 개체 추출부(300)는 상기 제2타켓의 3차원 좌표상 스케일 정보로부터 상기 제2타켓의 면정보와 축정보를 추출하여 상기 제2타켓 애니메이션 생성부(400)로 전송한다.Next, the second target object extraction unit 300 extracts plane information and axis information of the second target from the three-dimensional coordinate-based scale information of the second target, and outputs the plane information and axis information to the second target animation generation unit 400 send.

다음으로, 상기 제2타켓 애니메이션 생성부(400)는, 추출된 면들 사이에 추출한 회전축의 삽입 등 애니메이션 정보를 상기 제2타켓 파일에 입력한다. 상기 애니메이션 정보는 상기 제2타켓의 2차원 전개도에 대응하는 면을 정의하는 선분들, 회전축의 삽입 위치, 회전축의 접힘 방향 및 접힘 각도, 타이밍 등 를 포함한다.Next, the second target animation generation unit 400 inputs animation information such as insertion of the rotation axis extracted between the extracted faces into the second target file. The animation information includes line segments defining a plane corresponding to the two-dimensional developed view of the second target, an insertion position of the rotation axis, a folding direction and a folding angle of the rotation axis, and a timing.

또한, 상기 애니메이션 정보를 입력하기 위해, 영상 보간자(interpolator)를 결정한다(S440). 상술한 바와 같이, 상기 영상 보간자는 상기 제2타켓에 대한 애니메이션 동작이 수행되는 동안의 횟수 및 속도를 조절하여, 영상을 보간한다. 예를 들어, 상기 제2타켓의 전개도가 접히는 순서, 접히는 각도, 접히는 방향, 접히는 반복횟수, 접히는 과정의 진행 시간 등을 결정하여 상기 제2타켓의 애니메이션 동작을 보간한다.In order to input the animation information, an interpolator is determined (S440). As described above, the image interpolator adjusts the number and speed during the animation operation on the second target to interpolate the image. For example, the animation operation of the second target is interpolated by determining the order in which the developed view of the second target is folded, the folding angle, the folding direction, the number of times of folding, and the progressing time of the folding process.

다음으로, 상기 제2타켓 애니메이션 생성부(400)는 결정된 상기 영상 보간자에 따라 애니메이션 객체를 생성한다(S450). 즉, 상기 제2타켓 애니메이션 생성부(400)는 결정된 상기 영상 보간자를 이용하여, 상기 제2타켓의 전개도의 구조 및 형태에 따라 전개도가 조립되는 시점별 애니메이션 객체를 생성하여 설정한다.Next, the second target animation generating unit 400 generates an animation object according to the determined image interpolator (S450). That is, the second target animation generating unit 400 generates and sets an animation object according to a point in time when the developed view is assembled according to the structure and form of the developed view of the second target, using the determined interpolator.

또한, 상기 제2타켓 애니메이션 생성부(400)는 상기 제2타켓의 전개도의 면들 중 하나의 기준면을 선정하고(S460), 선정된 기준면을 기준으로 트리구조(tree structure)를 생성한다(S470). 상기 트리구조는 하나의 면을 기준면으로 설정하고, 상기 전개도에서 기준면을 제외한 나머지 면들은 각각 하나의 노드(node)로 설정하여 계층적 트리구조를 형성한다. 이때 상기 트리구조에서 전개도의 모든 면은 상위 기준면의 위치 및 회전 정보에 영향을 받는 것을 특징으로 한다.In addition, the second target animation generation unit 400 selects one reference plane of the developed view of the second target (S460), and generates a tree structure based on the selected reference plane (S470) . In the tree structure, one surface is set as a reference surface, and the remaining surfaces except for the reference surface in the developed view are set as one node, thereby forming a hierarchical tree structure. In this case, all the surfaces of the developed view in the tree structure are affected by the position and rotation information of the upper reference plane.

이와 같이 생성된 트리구조는 그래프 형태로 변환하여, 3차원 그래픽으로 나타내는데, 상기 트리구조는 웹을 통한 확장성 생성 언어(XML) 문서의 상호 연동을 위한 객체 기반의 문서 모델로 표시될 수 있다.The tree structure thus generated is transformed into a graph form and displayed in a three-dimensional graph. The tree structure can be displayed as an object-based document model for interoperability of XML documents through the Web.

또한, 3차원 그래픽으로 구현된 트리구조는 2차원 면의 두께를 표현하기 위해, 면의 상부와 하부에 면을 입체화하여 3차원 면의 형태로 생성한다.In addition, a tree structure implemented in a three-dimensional graphic forms a three-dimensional surface in the form of a three-dimensional surface at the top and bottom of the surface to express the thickness of the two-dimensional surface.

또한, 상기 입체화된 면들은 트리구조의 파일과 컴파일을 이용하여, 컴퓨터 프로그램의 형태 중 하나인 Java 및 Java Script에서 구현할 수 있도록 3차원 어플리케이션 프로그래밍 인터페이스를 바탕으로 한 신그래프(scenegraph)를 생성한다. 이때, 신그래프로 구현되는 각 면들의 외표면과 내표면을 구분하고, 구분된 각 면들을 익스트루딩(extruding) 처리하여, 객체의 입체감을 더욱 형성시켜 줄 수 있도록 구현될 수 있다. In addition, the three-dimensional surfaces generate a scenegraph based on a three-dimensional application programming interface so as to be implemented in Java and Java Script, which are one of computer program forms, using a tree structure file and compilation. At this time, it is possible to distinguish the outer surface and the inner surface of each of the surfaces realized by the new graph, and extruding the divided surfaces to further form a three-dimensional effect of the object.

또한, 상기 제2타켓의 펼쳐진 전개도를 조립할 때, 제2타켓의 전개도를 구성하는 면과 면 사이의 접히는 곳을 각진 모서리로 표현하기보다는 부드럽게 표현하기 위해, 상기 제2타켓의 전개도를 구성하는 면과 면 사이의 축에 실린더와 같은 원기둥형태의 객체를 추가하여 삽입할 수 있다.In order to smoothly express the folding line between the plane constituting the developed view of the second target and the plane at the time of assembling the unfolded developed view of the second target, A cylindrical object such as a cylinder may be added to an axis between the surface and the surface.

또한, 상기 제2타켓 애니메이션 생성부(400)는 상기 제2타켓의 각 면들의 영상을 래스터라이즈(rasterize) 한다(S480). 예를 들어, 상기 제2타켓의 영상에 텍스트를 입력할 때, 영상의 애니메이션 동작에 따라 입력된 텍스트도 자유롭게 변형할 수 있도록 텍스트의 레이어(layer)를 그림화한다.In addition, the second target animation generation unit 400 rasterizes an image of each side of the second target (S480). For example, when a text is inputted to the image of the second target, a layer of the text is drawn so that the inputted text can be freely transformed according to the animation operation of the image.

다음으로, 상기 래스터라이즈(rasterize) 된 상기 제2타켓의 각 면들에 해당하는 좌표를 이용하여, 각 면들의 외표면에 텍스처 맵핑(texture mapping)을 한다(S490). 상기 제2타켓 데이터베이스(210)로부터 상기 제2타켓의 각 면의 디자인 정보를 추출하여 상기 제2타켓의 외표면에 원지의 질감, 무늬, 색상 등을 나타내는 텍스처를 맵핑한다. Next, texture mapping is performed on the outer surfaces of the respective surfaces using the coordinates corresponding to the respective surfaces of the rasterized second target (S490). Design information of each side of the second target is extracted from the second target database 210, and a texture representing the texture, pattern, color, etc. of the original is mapped on the outer surface of the second target.

상기 제2타켓에 대한 텍스처 맵핑단계가 끝나면, 도 2로 돌아와, 합성영상 파일 생성부(500)는 상기 제1타켓 파일과 제2타켓 파일이 결합된 합성영상 파일을 생성하기 위해 제1타켓 파일과 제2타켓 파일을 매칭한다(S500).2, the composite image file generator 500 generates a composite image file by combining the first target file and the second target file to generate a composite image file, And the second target file (S500).

즉, 상기 제1타켓 파일과 제2타켓 파일의 매칭은, 상기한 바와 같이, 상기 제1타켓과 제2타켓 각각에 미리 저장되어 있는 벡터좌표를 이용하여 각각의 벡터좌표간 특징점을 정합하는 맵핑에 의해 매칭된다.That is, the matching between the first target file and the second target file is performed by mapping the minutiae between the respective vector coordinates using the vector coordinates previously stored in the first target and the second target, .

이때, 상기 제1타켓 파일과 제2타켓 파일의 매칭을 위해, 도 5에 도시한 바와 같이, 상기 제1타켓 파일과 제2타켓 파일의 객체에 좌표값을 포함하는 2 내지 3축의 기준선을 갖는 가상면을 생성하고, 상기 제1타켓과 제2타켓 각각의 객체 파일에 생성된 가상면의 중심점 간 매칭을 이용하여, 제1타켓 파일과 제2타켓 파일을 결합한다.In order to match the first target file and the second target file, as shown in FIG. 5, the first and second target files have a reference line of 2 to 3 axes including coordinate values And combines the first target file and the second target file using the matching between the center points of the virtual surfaces generated in the object file of each of the first target and the second target.

상기 제1타켓과 제2타켓의 매칭이 이루어지면, 매칭된 제1타켓과 제2타켓 파일의 애니메이션 동작을 실행한다(S600). 이때, 상기 제1타켓과 제2타켓 파일의 애니메이션 동작은 S440 단계와 S450단계에서 미리 입력된 정보를 이용하여, 애니메이션 동작을 수행한다. 예를 들어, 도4의 (c)와 같이 제1타켓과 제2타켓이 모두 매칭되면, 펼쳐져 있던 제2타켓의 전개도가 애니메이션 동작으로 조립되면서, 상기 제1타켓과 제2타켓이 합성 타켓으로 정합된다(S700).When the first target and the second target are matched, animation operations of the matched first and second target files are executed (S600). At this time, the animation operation of the first target and the second target file is performed using the information previously input in steps S440 and S450. For example, if both the first target and the second target are matched as shown in FIG. 4 (c), the expanded view of the expanded second target is assembled in an animation operation, and the first target and the second target are combined (S700).

상기 제1타켓과 제2타켓이 합성 타켓으로 정합되면, 합성영상 파일 생성부(500)는 상기 제1타켓과 제2타켓에 대한 합성영상 파일이 생성한다(S800).If the first target and the second target are matched to the composite target, the composite image file generation unit 500 generates a composite image file for the first target and the second target in operation S800.

상기 제1타켓과 제2타켓의 합성영상 파일은 영상파일 실행부(600)에 의해 제1타켓과 제2타켓의 결합 과정이 애니메이션으로 실행되어 상기 영상표시부(700)에 표시되고, 사용자는 상기 영상표시부(700)를 통해 상기 합성영상 파일의 선택여부를 판단한다(S900).The composite image file of the first target and the second target is animated by the image file execution unit 600 and is displayed on the image display unit 700 by the animation process of combining the first target and the second target, The image display unit 700 determines whether the composite image file is selected (S900).

이때, 사용자가 상기 합성영상 파일을 선택하면 시스템을 종료하고, 사용자가 상기 합성영상 파일을 선택하지 않으면, S200 단계로 되돌아가 사용자는 새로운 포장상자를 제2타켓으로 선택할 수 있게 된다. At this time, if the user selects the composite image file, the system is terminated. If the user does not select the composite image file, the process returns to step S200, and the user can select a new packing box as the second target.

100 제1타켓 파일관리부
110 제1타켓 데이터베이스
200 제2타켓 파일관리부
210 제2타켓 데이터베이스
300 제2타켓 개체 추출부
400 제2타켓 애니메이션 생성부
500 합성영상 파일 생성부
600 영상 파일 실행부
700 영상표시부
100 first target file manager
110 First target database
200 Second target file manager
210 Second target database
300 2nd target entity extracting unit
400 second target animation generation section
500 composite image file generation unit
600 image file execution part
700 video display

Claims (10)

웹상에서 상품과 상기 상품을 포장하는 포장상자의 3차원 합성영상을 제공하기 위한 상품과 포장상자의 3차원 합성영상 생성 시스템으로서,
복수의 상품들을 카테고리별로 분류한 상품리스트와 상기 상품들에 관련된 데이터 정보를 저장하고 있는 제1타켓 데이터베이스와,
상기 제1타켓 데이터베이스에 저장된 복수의 상품으로부터 선택된 상품인 제1타켓에 대한 3차원 모델 데이터의 제1타켓 파일을 관리하는 제1타켓 파일 관리부와,
복수의 포장상자를 다양한 카테고리별로 분류하고, 적어도 상기 복수의 포장상자들의 전개도에 관한 정보를 저장하고 있는 제2타켓 데이터베이스와,
상기 제2타켓 데이터베이스에 저장된 복수의 포장상자로부터 선택된 포장상자인 제2타켓에 대한 웹에서 편집가능한 파일인 제2타켓 파일을 관리하는 제2타켓 파일 관리부와,
상기 제2타켓 데이터베이스에 저장된 상기 제2타켓의 전개도의 선분을 분석하여 상기 제2타켓의 면정보와 축정보를 추출하는 제2타켓 개체 추출부와,
상기 제2타켓 개체 추출부에서 추출된 제2타켓의 면정보와 축정보를 이용하여, 추출된 면들 사이에 추출한 회전축을 삽입하고, 제2타켓 파일에 애니메이션 정보를 입력하여 시간에 따라 공간적으로 변형되는 제2타켓 파일의 애니메이션 객체를 생성하는 제2타켓 애니메이션 생성부와,
상기 제1타켓 파일 관리부에서 관리되는 제1타켓 파일과 상기 제2타켓 애니메이션 생성부에서 애니메이션 객체가 생성된 제2타켓 파일을 결합하여 합성영상 파일을 생성하는 합성 영상파일 생성부와,
상기 합성 영상파일 생성부에 의해 생성된 합성영상 파일을 애니메이션으로 실행하는 영상파일 실행부를 포함하는 것을 특징으로 하는 상품과 포장상자의 3차원 합성영상 생성 시스템.
A three-dimensional composite image generation system for a product and a packaging box for providing a three-dimensional composite image of a product and a packaging box for packaging the product on the web,
A first target database storing a list of goods classified by categories and data information related to the goods,
A first target file management unit for managing a first target file of three-dimensional model data for a first target, which is a product selected from a plurality of products stored in the first target database,
A second target database for classifying a plurality of packing boxes by various categories and storing information about at least a developed view of the plurality of packing boxes,
A second target file manager for managing a second target file which is a web editable file for a second target, which is a packing box selected from a plurality of packing boxes stored in the second target database,
A second target object extracting unit for analyzing a line segment of the developed view of the second target stored in the second target database and extracting face information and axis information of the second target;
The rotation axis extracted between the extracted faces is inserted using the plane information and the axis information of the second target extracted by the second target object extracting unit and the animation information is inputted to the second target file to spatially change A second target animation generating unit for generating an animation object of a second target file,
A composite image file generation unit for generating a composite image file by combining a first target file managed by the first target file management unit and a second target file generated by the second target animation generation unit,
And a video file execution unit that animates the composite video file generated by the composite video file generation unit 3D composite image generation system of goods and packaging box.
제1항에 있어서,
상기 제1타켓 파일은 맵핑좌표를 포함하고 있는 3차원 벡터 형식파일이고,
상기 제2타켓 파일은 2차원 벡터 그래픽을 표현하기 위한 웹에서 편집가능한 표준 언어 파일인 것을 특징으로 하는 상품과 포장상자의 3차원 합성영상 생성 시스템.
The method according to claim 1,
The first target file is a three-dimensional vector format file including mapping coordinates,
Wherein the second target file is a web-editable standard language file for representing a two-dimensional vector graphic.
제1항에 있어서,
상기 제1타켓 파일 관리부는 상기 제1타켓의 적어도 하나의 구성요소에 관련된 적어도 하나의 정보 및 기능들을 검색할 수 있도록 태그하여 표시하는 것을 특징으로 하는 3차원 합성영상 생성 시스템.
The method according to claim 1,
Wherein the first target file management unit tags and displays at least one information and functions related to at least one component of the first target so as to be searchable.
제1항에 있어서,
상기 제2타켓 애니메이션 생성부는, 상기 애니메이션 정보를 입력하기 위한 영상 보간자(interpolator)를 결정하고,
상기 영상 보간자는, 상기 제2타켓에 대한 애니메이션 동작이 수행되는 동안의 횟수 및 속도를 조절하여, 상기 제2타켓의 전개도의 구조 및 형태에 따라 전개도가 조립되는 시점별 애니메이션 객체를 생성하는 것을 특징으로 하는 상품과 포장상자의 3차원 합성영상 생성 시스템.
The method according to claim 1,
The second target animation generation unit may determine an interpolator for inputting the animation information,
The image interpolator adjusts the number and speed during the animation operation on the second target to generate an animation object for each viewpoint in which the developed view is assembled according to the structure and form of the developed view of the second target A three - dimensional composite image generation system for products and packaging boxes.
제1항에 있어서,
상기 제1타켓 파일과 상기 제2타켓 파일은, 각각의 객체인 상기 제1타켓 및 상기 제2타켓 각각에 임의로 생성한 가상면을 더 포함하고, 상기 가상면은 그 중심점에 좌표값을 갖는 2축 내지는 3축의 기준선을 포함하며,
상기 제1타켓 파일의 가상면과 상기 제2타켓 파일의 가상면의 매칭을 통한 결합에 의해 상기 합성영상 파일을 생성하는 것을 특징으로 하는 상품과 포장상자의 3차원 합성영상 생성 시스템.
The method according to claim 1,
Wherein the first target file and the second target file further include a virtual plane arbitrarily generated in each of the first target and the second target as respective objects, and the virtual plane includes two Axis or a three-axis reference line,
Wherein the composite image file is generated by combining the virtual face of the first target file and the virtual face of the second target file.
제1항에 있어서,
상기 영상파일 실행부는, 상기 합성영상 파일을 애니메이션으로 실행할 뿐만 아니라, 상기 제1타켓 파일에 의한 3차원의 제1타켓 영상, 상기 제2타켓 파일에 의한 3차원의 제2타켓 영상, 및 상기 합성영상 파일에 의한 3차원의 제1타켓과 제2타켓의 합성영상을 실행하여 웹상에서 사용자에게 제공할 수 있으며,
또한, 상기 영상파일 실행부는, 회전모듈, 확대/축소모듈 및 태그모듈을 포함하여, 웹상에서 사용자에게 상기 3차원의 제1타켓 영상, 3차원의 제2타켓 영상, 및 3차원의 제1타켓과 제2타켓의 합성영상을 모든 방향으로 회전시키거나, 확대 또는 축소시키거나, 또는 상기 제1타켓 또는 제2타켓의 구성요소의 정보를 확인하기 위한 태그를 실행할 수 있는 기능을 제공하는 것을 특징으로 하는 상품과 포장상자의 3차원 합성영상 생성 시스템.
The method according to claim 1,
The image file execution unit not only performs the animation of the synthesized image file, but also executes the synthesized image file in a three-dimensional first target image based on the first target file, a second target image based on the second target file, The synthesized image of the first target and the second target of the three-dimensional image file can be executed and provided to the user on the web,
The image file execution unit may include a rotation module, an enlargement / reduction module, and a tag module. The image file execution unit may provide the user with a three-dimensional first target image, a three-dimensional second target image, And a function for executing a tag for rotating, enlarging or reducing the composite image of the second target in all directions, or for confirming information of the first target or the second target component A three - dimensional composite image generation system for products and packaging boxes.
웹상에서 상품과 상기 상품을 포장하는 포장상자의 3차원 합성영상을 제공하기 위한 상품과 포장상자의 3차원 합성영상 생성 방법으로서,
제1타켓 데이터베이스에 저장된 복수의 상품으로부터 선택된 상품인 제1타켓에 대한 3차원 모델 데이터의 제1타켓 파일을 불러오는 제1단계와,
제2타켓 데이터베이스에 저장된 복수의 포장상자로부터 선택된 포장상자인 제2타켓에 대한 웹에서 편집가능한 파일인 제2타켓 파일을 불러오는 제2단계와,
상기 제2타켓 데이터베이스에 저장된 상기 제2타켓의 전개도의 선분을 분석하여 상기 제2타켓의 면정보와 축정보를 추출하는 제3단계와,
추출된 상기 제2타켓의 면정보와 축정보를 이용하여, 추출된 면들 사이에 추출한 회전축을 삽입하고, 상기 제2타켓 파일에 애니메이션 정보를 입력하여 시간에 따라 공간적으로 변형되는 제2타켓 파일의 애니메이션 객체를 생성하는 제4단계와,
상기 제1타켓 파일과 상기 애니메이션 객체가 생성된 제2타켓 파일을 결합하여 합성영상 파일을 생성하는 제5단계와,
상기 합성영상 파일을 애니메이션으로 실행하는 제6단계를 포함하는 것을 특징으로 하는 상품과 포장상자의 3차원 합성영상 생성 방법.
A method for generating a three-dimensional composite image of a product and a packaging box for providing a three-dimensional composite image of a product and a packaging box for packing the product on the web,
A first step of loading a first target file of three-dimensional model data for a first target, which is a product selected from a plurality of products stored in a first target database,
A second target file, which is a web editable file for a second target, which is a packing box selected from a plurality of packing boxes stored in a second target database;
A third step of analyzing a line segment of the developed view of the second target stored in the second target database to extract face information and axis information of the second target;
A second target file that is spatially deformed according to time by inserting the extracted rotation axis between the extracted faces using the extracted plane information of the second target and the axis information and inputting the animation information into the second target file, A fourth step of creating an animation object,
A fifth step of generating a composite image file by combining the first target file and the second target file in which the animation object is generated,
And a sixth step of animating the composite image file.
제7항에 있어서,
상기 제4단계는, 상기 애니메이션 정보를 입력하기 위한 영상 보간자(interpolator)를 결정하고,
상기 영상 보간자는, 상기 제2타켓의 전개도의 접히는 순서, 접히는 각도, 접히는 방향, 접히는 반복횟수 및 접히는 과정의 진행 시간 등을 결정하여 상기 제2타켓의 애니메이션 동작을 보간하는 것을 특징으로 하는 상품과 포장상자의 3차원 합성영상 생성 방법.
8. The method of claim 7,
The fourth step may include determining an interpolator for inputting the animation information,
Wherein the image interpolator interpolates an animation operation of the second target by determining a folding order, a folding angle, a folding direction, a folding repeat number, and a folding progress time of the developed target of the second target, 3 - Dimensional Composite Image Generation Method for Product and Packaging Box.
제7항에 있어서,
상기 제4단계에서. 상기 제2타켓 파일의 애니메이션 객체를 생성한 후,
상기 제2타켓의 전개도의 면들 중 하나의 기준면을 선정하고, 상기 전개도에서 상기 기준면을 제외한 나머지 면들은 각각 하나의 노드(node)로 설정하여 계층적 트리구조를 형성하되, 상기 트리구조에서 상기 전개도의 나머지 면들은 상위에 있는 상기 기준면의 위치 및 회전 정보에 영향을 받는 것을 특징으로 하는 3차원 합성영상 생성 방법.
8. The method of claim 7,
In the fourth step. After generating the animation object of the second target file,
Wherein one of the faces of the developed view of the second target is selected and the remaining faces except for the reference face in the developed view are set as one node to form a hierarchical tree structure, Wherein the remaining surfaces of the reference plane are influenced by the position and rotation information of the reference plane on the upper side.
제7항에 있어서,
제5단계에서 상기 제1타켓 파일과 제2타켓 파일의 결합은, 상기 제1타켓과 제2타켓의 각각에 좌표값을 포함하는 2 내지 3축의 기준선을 갖는 가상면을 생성하고, 상기 제1타켓과 제2타켓 각각의 객체 파일에 생성된 가상면의 중심점 간 매칭을 이용하여, 제1타켓 파일과 제2타켓 파일을 결합하는 것을 특징으로 하는 상품과 포장상자의 3차원 합성영상 생성 방법.
8. The method of claim 7,
In the fifth step, the combination of the first target file and the second target file creates a virtual plane having a reference line of 2 to 3 axes including a coordinate value in each of the first target and the second target, And combining the first target file and the second target file using the matching between the center points of the generated virtual faces in the object file of the target and the second target.
KR1020170072916A 2016-06-17 2017-06-12 System and Method for generating 3-Dimensional composited image of goods and packing box KR102031647B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/006172 WO2017217752A1 (en) 2016-06-17 2017-06-14 System and method for generating three dimensional composite image of product and packing box

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020160075514 2016-06-17
KR20160075514 2016-06-17
KR1020160125113 2016-09-28
KR1020160125113A KR20170142819A (en) 2016-06-17 2016-09-28 Method and System for generating 3-Dimensional composited image.

Publications (2)

Publication Number Publication Date
KR20170142890A true KR20170142890A (en) 2017-12-28
KR102031647B1 KR102031647B1 (en) 2019-10-14

Family

ID=60939465

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020160125113A KR20170142819A (en) 2016-06-17 2016-09-28 Method and System for generating 3-Dimensional composited image.
KR1020170072916A KR102031647B1 (en) 2016-06-17 2017-06-12 System and Method for generating 3-Dimensional composited image of goods and packing box

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020160125113A KR20170142819A (en) 2016-06-17 2016-09-28 Method and System for generating 3-Dimensional composited image.

Country Status (1)

Country Link
KR (2) KR20170142819A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210033871A (en) * 2019-09-19 2021-03-29 쿠팡 주식회사 Systems and methods for computer-determined efficient bagging of ordered items
KR20220094375A (en) 2020-12-29 2022-07-06 씨제이대한통운 (주) Packaging decision method and system for packaging products classified in multi-temperature ranges

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116863081B (en) * 2023-07-19 2023-12-29 分享印科技(广州)有限公司 3D preview system and method for packaging box

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08185544A (en) * 1994-12-28 1996-07-16 Canon Inc Computer graphic production system and control method for the same
KR20060112354A (en) * 2005-04-26 2006-11-01 이철윤 Packing box design system by on-line and the process therof
KR20120122498A (en) 2011-04-29 2012-11-07 박진용 Method for videoing a process of packaging products and transmitting the videoed result using smart device and web

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08185544A (en) * 1994-12-28 1996-07-16 Canon Inc Computer graphic production system and control method for the same
KR20060112354A (en) * 2005-04-26 2006-11-01 이철윤 Packing box design system by on-line and the process therof
KR20120122498A (en) 2011-04-29 2012-11-07 박진용 Method for videoing a process of packaging products and transmitting the videoed result using smart device and web

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210033871A (en) * 2019-09-19 2021-03-29 쿠팡 주식회사 Systems and methods for computer-determined efficient bagging of ordered items
US11327447B2 (en) 2019-09-19 2022-05-10 Coupang Corp. Systems and methods for computer-determined efficient bagging of ordered items
KR20220094375A (en) 2020-12-29 2022-07-06 씨제이대한통운 (주) Packaging decision method and system for packaging products classified in multi-temperature ranges

Also Published As

Publication number Publication date
KR102031647B1 (en) 2019-10-14
KR20170142819A (en) 2017-12-28

Similar Documents

Publication Publication Date Title
US20200380333A1 (en) System and method for body scanning and avatar creation
US11244223B2 (en) Online garment design and collaboration system and method
US11367250B2 (en) Virtual interaction with three-dimensional indoor room imagery
US10628666B2 (en) Cloud server body scan data system
US11640672B2 (en) Method and system for wireless ultra-low footprint body scanning
US20140132595A1 (en) In-scene real-time design of living spaces
JP2011227903A (en) Automatic generation of 3d model from packaged goods product image
US10013506B2 (en) Annotating real-world objects
KR102031647B1 (en) System and Method for generating 3-Dimensional composited image of goods and packing box
KR101726184B1 (en) Method And Apparatus For 3-Dimensional Showing Animation Of Packing Box
WO2017217752A1 (en) System and method for generating three dimensional composite image of product and packing box
US11948057B2 (en) Online garment design and collaboration system and method
Doungmala et al. Investigation into the Application of Image Modeling Technology in the Field of Computer Graphics
WO2018182938A1 (en) Method and system for wireless ultra-low footprint body scanning
Techasarntikul et al. Guidance and visualization of optimized packing solutions
Sundaram et al. Plane detection and product trail using augmented reality
JP4979358B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP5533094B2 (en) Parts catalog creation device, parts catalog creation method, and parts catalog creation program
JP4949001B2 (en) Image processing apparatus, program, and storage medium
Poon et al. Enabling 3D online shopping with affordable depth scanned models
Sorokin et al. Deep learning in tasks of interior objects recognition and 3D reconstruction
WO2021237169A1 (en) Online garment design and collaboration and virtual try-on system and method
US20220005260A1 (en) System for determining visually relevant design differences between 3d models
JP2000163469A (en) Method and device for stocktaking simulation and recording medium where stocktaking simulation program is recorded
Kamath et al. An effective stereo visualization system implementation for virtual prototyping

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant