KR20220095483A - System for providing real-time costume replacement contents with AR beam project - Google Patents

System for providing real-time costume replacement contents with AR beam project Download PDF

Info

Publication number
KR20220095483A
KR20220095483A KR1020200187038A KR20200187038A KR20220095483A KR 20220095483 A KR20220095483 A KR 20220095483A KR 1020200187038 A KR1020200187038 A KR 1020200187038A KR 20200187038 A KR20200187038 A KR 20200187038A KR 20220095483 A KR20220095483 A KR 20220095483A
Authority
KR
South Korea
Prior art keywords
costume
model
user
character
content
Prior art date
Application number
KR1020200187038A
Other languages
Korean (ko)
Other versions
KR102457954B1 (en
Inventor
조지은
홍진오
이세환
박상우
박지영
Original Assignee
제이에스씨(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 제이에스씨(주) filed Critical 제이에스씨(주)
Priority to KR1020200187038A priority Critical patent/KR102457954B1/en
Publication of KR20220095483A publication Critical patent/KR20220095483A/en
Application granted granted Critical
Publication of KR102457954B1 publication Critical patent/KR102457954B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2024Style variation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a real-time clothes change content providing system. The real-time clothes change content providing system includes: a user terminal in which a dedicated application including a character clothes drawing function to draw user character clothes is installed; a generation server, when receiving user picture data drawn by a user through the character clothes drawing function of the dedicated application from the user terminal, generating an artificial intelligence-based three-dimensional clothes model about the received user picture data, and providing the generated three-dimensional clothes model to an AR beam projector; and the AR beam projector projecting an augmented reality (AR) screen on a projection area of content formed as an actual object, while projecting the AR screen employing the three-dimensional clothes model received from the generation server. In accordance with the present invention, since a two-dimensional original picture inputted directly from a user is generated into a three-dimensional model to be applied to AR content in real time, the user can have more interest, and an AR content-related education function can be enhanced.

Description

AR 빔 프로젝트를 구비하는 실시간 의상 교체 콘텐츠 제공 시스템 {System for providing real-time costume replacement contents with AR beam project}Real-time costume replacement contents providing system having AR beam project {System for providing real-time costume replacement contents with AR beam project}

본 발명은 의상 교체 콘텐츠 제공 기술에 관한 것으로서, 더욱 상세하게는 AR(Augmented Reality) 영상을 프로젝션하는 AR 빔 프로젝트를 구비하는 의상 교체 콘텐츠 제공 기술에 관한 것이다. The present invention relates to a technology for providing content for replacing clothes, and more particularly, to a technology for providing content for replacing clothes with an AR beam project for projecting an AR (Augmented Reality) image.

AR(Augmented Reality, 증강현실)은 사용자가 눈으로 보는 현실세계와 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주는 가상현실의 하나이다. 현실세계를 가상세계로 보완해주는 개념인 AR은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 하며, 사용자가 보고 있는 실사 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상화면과의 구분이 모호해지도록 한다.AR (Augmented Reality) is one of virtual reality that combines the real world seen by the user and the virtual world with additional information as one image. AR, a concept that complements the real world with the virtual world, uses a virtual environment created with computer graphics, but the main character is the real environment. Computer graphics serve to provide additional information necessary for the real environment and blur the distinction between the real environment and the virtual screen by overlapping the 3D virtual image on the actual image viewed by the user.

가상현실은 자신(객체)과 배경, 환경 모두 현실이 아닌 가상의 이미지를 사용하는데 반해, 증강현실(AR)은 현실의 이미지나 배경에 3차원 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술이다.Whereas virtual reality uses virtual images rather than reality for both the self (object), the background, and the environment, augmented reality (AR) is a technology that shows a 3D virtual image overlaid on a real image or background as a single image.

또한, 증강현실은 혼합 현실(Mixed Reality, MR)이라고도 하는데, 비행기 제조사인 보잉사에서 1990경 비행기 조립 과정에 가상의 이미지를 첨가하면서 증강현실이 처음으로 세상에 소개됐다.Augmented reality is also called Mixed Reality (MR), and augmented reality was first introduced to the world around 1990 when Boeing, an airplane manufacturer, added virtual images to the assembly process of airplanes.

증강현실과 가상현실(Virtual Reality, VR)은 서로 비슷한 듯 하지만 그 주체가 허상이냐 실상이냐에 따라 명확히 구분된다. 예를 들어, 가상현실 격투 게임은 나를 대신하는 캐릭터가 가상의 공간에서 가상의 적과 대결하지만, 증강현실 격투 게임은 현실의 내가 현실의 공간에서 가상의 적과 대결을 벌이는 형태가 된다. 따라서, 증강현실이 가상현실에 비해 현실감이 뛰어나다는 특징이 있다.Augmented reality and virtual reality (VR) seem similar to each other, but they are clearly differentiated depending on whether the subject is a virtual image or a real image. For example, in a virtual reality fighting game, a character that replaces me confronts a virtual enemy in a virtual space, but in an augmented reality fighting game, a real person competes with a virtual enemy in a real space. Therefore, augmented reality is characterized by superior realism compared to virtual reality.

이 밖에 가상현실은 일반적으로 영화나 영상 분야 등 특수 환경에서만 사용되지만 증강현실은 현재 일반인들에게도 널리 활용될 만큼 대중화된 상태다.In addition, virtual reality is generally used only in special environments such as movies and video fields, but augmented reality is now popular enough to be widely used by the general public.

예를 들어, 인터넷을 통한 지도 검색, 위치 검색 등도 넓은 의미에서는 증강현실에 포함된다.For example, map search and location search through the Internet are also included in augmented reality in a broad sense.

일반적으로, 유아 및 어린이는 동화책을 보거나 놀이기구로서 퍼즐 맞추기나 블럭쌓기를 하며 성장한다. 이처럼, 아동에게 동화책 또는 놀이기구는 다양한 정보와 지식을 자연스럽게 습득하게 하는 중요한 매체로, 동화책이나 퍼즐 또는 블럭은 아동의 정서, 상상력, 창의력 발달에 도움을 주면서 그 교육적인 내용을 통해 사회, 언어, 인지 발달 등에 고른 영향을 미친다.In general, infants and children grow up by reading a storybook or jigsaw puzzles or building blocks as play equipment. As such, children's books or rides are an important medium that allows children to naturally acquire various information and knowledge, and children's books, puzzles, or blocks help develop children's emotions, imagination, and creativity, and provide social, language, and It has an even effect on cognitive development.

2015년 국민독서실태조사 보고서에 의하면, 성장 과정에서 책을 매개로 한 소통(책 읽기, 책 놀이, 독서대화 등)은 독서에 대한 친밀감을 키우고 독서습관을 기르는데 중요한 역할을 한다고 한다.According to the 2015 National Reading Survey Report, communication through books (reading books, playing books, reading conversations, etc.) during the growth process plays an important role in fostering intimacy with reading and fostering reading habits.

이처럼 최근 연구 결과에 의하면, 독서량이 많은 아이는 학업성적은 물론, 사고력과 창의력이 높다는 사실이 밝혀졌다. 그리고, 디지털 매체의 발달로 급변하는 독서환경 및 독서인구 감소에 따른 대응이 요구되는 상황이다. 이에 정부는 독서문화진흥기본계획을 수립하여, 독서진흥 및 독서문화 확산을 위한 사업을 추진하고 있으나, 국민이 체감하기에는 미흡한 실정이며, 독서 콘텐츠의 지속적 확충이 요구된다. As such, according to recent research results, it has been found that children who read a lot have higher thinking and creativity, as well as academic performance. In addition, it is a situation that requires a response to the rapidly changing reading environment and the decrease in the reading population due to the development of digital media. Accordingly, the government has established a basic plan for the promotion of reading culture and is carrying out projects to promote reading and spread the culture of reading.

이처럼, 유아용 시장이 틈새시장에서 핵심(엔젤)시장으로 부상함에 따라 모바일 키즈를 겨냥한 학습용 게임형 모바일 에듀테인먼트 콘텐츠 소비시장이 성장하고 있다. As such, as the infant market emerges from a niche market to a core (angel) market, the learning game-type mobile edutainment content consumption market targeting mobile kids is growing.

그리고, 가상현실(VR)이 미래 산업을 이끌 블루오션으로 떠오르면서 게임, 의료, 교육, 전시 등 다양한 분야에 적용사례가 증가하고 있으나, 킬러 콘텐츠 발굴이 필요한 실정이다. And, as virtual reality (VR) emerges as a blue ocean to lead the future industry, application cases are increasing in various fields such as games, medical care, education, and exhibitions, but it is necessary to discover killer contents.

최근 아날로그와 디지털 정보를 결합한 증강현실 기반의 차세대 전자책의 일종인 디지로그 북(Digilog Book) 기술이 주목을 받고 있다. 이는 종이로 인쇄된 실사물을 손으로 만지고 느끼면서 자연마커를 통해 다양한 증강현실 기반의 멀티미디어 효과를 제공한다.Recently, Digilog Book technology, a kind of next-generation e-book based on augmented reality that combines analog and digital information, is attracting attention. It provides a variety of augmented reality-based multimedia effects through natural markers while touching and feeling the real-life printed on paper.

또한 사용자와의 손쉬운 인터렉션을 통해 다양한 방향으로 이야기를 전개해나가는 흥미로운 특징들을 가지고 있다. 아날로그와 디지털 정보를 결합하기 위해 다양한 연구들이 진행되고 있지만, 그 중 프로젝션 방식으로 실사물 위에 디지털 정보를 그대로 투사하여 실사물 위에서 다양한 멀티미디어 콘텐츠가 동작되는 효과를 얻을 수 있다. 이는 실사물을 보면서 실감 있는 부가 정보를 체험할 수 있어 몰입도를 높일 수 있는 장점을 가진다.In addition, it has interesting features that develop the story in various directions through easy interaction with the user. Various studies are being conducted to combine analog and digital information, but among them, digital information is projected onto a real object through a projection method to obtain the effect of operating various multimedia contents on a real object. This has the advantage of increasing the level of immersion by being able to experience realistic additional information while watching the real thing.

그러나, 프로젝션 방식은 실사물을 프로젝션 영역에 정확히 위치시켜야만 실사물에 인쇄된 정보와 투사된 디지털 정보가 조화되어 실감나는 콘텐츠를 제공할 수 있는데, 유아나 아이들은 실사물을 프로젝션 영역에 정확히 위치시키는 것이 쉽지 않은 문제가 있다.However, the projection method can provide realistic content by harmonizing the printed information with the projected digital information only when the real object is accurately positioned in the projection area. There is a problem that is not easy.

기존의 2D 이미지 기반의 3D 캐릭터 생성 기술은 클라우드 검색 등을 통해 데이터베이스에서 사용자가 그린 이미지와 가장 비슷한 데이터를 골라 변형하여 사용하거나, 또는 3D 모델을 미리 만든 후 사용자가 색칠한 옷의 텍스처만 가지고 와서 3D 모델에 적용하는 형태로 서비스 되고 있어서, 엄밀히 말하면 사용자의 의도와 완전히 일치하지는 않는 다른 캐릭터의 옷을 제공하고 있다고 할 수 있다.The existing 2D image-based 3D character creation technology selects and transforms data most similar to the image drawn by the user from the database through cloud search, etc. As it is being serviced in the form of being applied to a 3D model, strictly speaking, it can be said that it provides clothes for other characters that do not completely match the user's intentions.

대한민국 공개특허 10-2020-0137766Republic of Korea Patent Publication 10-2020-0137766

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 인공지능 기술을 활용하여 사용자가 입력한 2D 원화를 그대로 3D 모델로 생성하여 콘텐츠에 실시간으로 적용할 수 있는 실시간 의상 교체 콘텐츠 제공 시스템을 제공하는데 그 목적이 있다.The present invention was devised to solve the above problems, and using artificial intelligence technology to generate a 2D original image input by a user as a 3D model as it is, and to provide a real-time clothes replacement content providing system that can be applied to the content in real time but it has a purpose.

또한, 본 발명은 AR 프로젝션 기술을 이용하여 디지털 정보를 투사하는 AR 빔 프로젝터의 프로젝션 영역(투사 영역)에 아날로그 정보가 인쇄된 투사물을 정확히 위치시킬 수 있는 AR 빔 프로젝터가 설치되는 책상을 제공하는데 그 다른 목적이 있다. In addition, the present invention provides a desk on which an AR beam projector capable of accurately positioning an object printed with analog information in a projection area (projection area) of an AR beam projector that projects digital information using AR projection technology is installed. It has a different purpose.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

이와 같은 목적을 달성하기 위한 본 발명은 실시간 의상 교체 콘텐츠 제공 시스템에 관한 것으로서, 사용자 캐릭터 의상을 그릴 수 있는 캐릭터 의상 그리기 기능이 포함된 전용 어플리케이션이 설치되어 있는 사용자 단말, 상기 사용자 단말로부터 상기 전용 어플리케이션의 캐릭터 의상 그리기 기능을 통해 사용자가 그린 사용자 그림 데이터를 수신하면, 수신한 사용자 그림 데이터에 대하여 인공지능 기반 3D 캐릭터 의상 모델을 생성하고, 생성된 3D 캐릭터 의상 모델을 AR 빔 프로젝트에 제공하는 생성 서버 및 실사물로 구성된 콘텐츠의 프로젝션 영역에 AR(Augmented Reality) 화면을 조사하되, 상기 생성 서버로부터 수신한 3D 캐릭터 의상 모델을 적용한 AR 화면을 조사하기 위한 AR 빔 프로젝트를 포함한다. The present invention for achieving the above object relates to a system for providing real-time clothes replacement content, wherein a user terminal having a dedicated application including a character costume drawing function capable of drawing a user character costume is installed, and the dedicated application from the user terminal When receiving user picture data drawn by the user through the character costume drawing function of and an AR beam project for irradiating an AR (Augmented Reality) screen to the projection area of the content composed of real objects, and applying the 3D character costume model received from the generation server.

상기 생성 서버는 인공지능 기반 3D 캐릭터 의상 모델을 생성하기 위한 학습 데이터 구축 단계 및 상기 사용자 단말로부터 입력된 사용자 그림 데이터를 활용한 3D 의상 생성을 위한 준비 단계를 통해 3D 캐릭터 의상 모델을 생성할 수 있다. The generation server can generate a 3D character costume model through a training data construction step for generating an artificial intelligence-based 3D character costume model and a preparation step for 3D costume generation using the user figure data input from the user terminal. .

상기 생성 서버는 상기 학습 데이터 구축 단계에서, 캐릭터 모델에 착장 가능한 기본 의상 모델로 구성된 모델링 학습 데이터, 기본 의상 모델로 구성된 각 의상에 대한 모델 데이터의 질감, 색상, UV 맵으로 구성된 질감 학습 데이터 및 콘텐츠 내에서 실시간으로 애니메이션을 지원할 수 있는 리깅 학습 데이터를 구축하는 과정인 기본 의상 데이터 구축 과정, 콘텐츠 내용에 특화된 의상 데이터 구축 과정, 콘텐츠 내 특화 의상에 대한 대표의상을 정의하는 과정 및 각 대표의상의 변형 영역을 지정해 의상을 변형시켜서 학습 모델을 확장시키는 학습모델 확장 과정을 수행할 수 있다. In the learning data building step, the generation server includes modeling learning data composed of a basic costume model that can be worn on a character model, texture learning data composed of texture, color, and UV maps of model data for each costume composed of the basic costume model, and content The basic costume data construction process, which is the process of building rigging learning data that can support animation in real time, the process of constructing clothes data specialized for the content, the process of defining the representative clothes for the specialized clothes in the content, and the transformation of each representative clothes The learning model extension process can be performed to extend the learning model by changing the clothes by designating an area.

본 발명에 의하면, 사용자가 직접 입력한 2D 원화를 그대로 3D 모델로 생성하여 AR 콘텐츠에 실시간으로 적용함으로써, 사용자의 흥미를 증가시킬 수 있으며, AR 콘텐츠 관련 교육 기능을 증대시킬 수 있는 효과가 있다. According to the present invention, the user's interest can be increased by generating a 2D original image directly input by the user as a 3D model and applying it to AR contents in real time, and there is an effect that can increase the AR contents related education function.

또한, 본 발명의 AR 빔 프로젝터가 설치되는 책상은 삽입홈에 실사물을 넣으면 실사물이 AR 빔 프로젝터의 프로젝션 영역에 정확하게 위치되므로, 유아나 아이들도 실사물을 정확한 곳에 용이하게 위치시킬 수 있는 이점이 있다.In addition, since the desk on which the AR beam projector of the present invention is installed puts the real object in the insertion groove, the real object is precisely positioned in the projection area of the AR beam projector, so infants and children can easily place the real object in the correct place There is this.

도 1 및 도 2는 본 발명의 일 실시예에 따른 실시간 의상 교체 콘텐츠 제공 시스템의 구성을 개략적으로 나타낸 도면이다.
도 3 내지 도 5은 본 발명의 일 실시예에 따른 AR 빔 프로젝터가 설치되는 책상을 보인 도면이다.
도 6는 본 발명의 일 실시예에 따른 AR 빔 프로젝터가 설치되는 책상에서 후방패널의 위치를 조절하는 모습을 보인 도면이다.
도 7는 본 발명의 일 실시예에 따른 AR 빔 프로젝터가 설치되는 책상의 삽입홈에서 탑커버를 빼내는 모습을 보인 도면이다.
도 8은 본 발명의 일 실시예에 따른 사용자 단말 화면예이다.
도 9는 본 발명에서 사용자 단말에서 제공 서버로 전달되는 데이터를 예시한 것이다.
도 10 내지 도 13은 본 발명에서 인공지능 3D 캐릭터 의상 모델 생성을 위한 학습 데이터 구축 과정을 예시한 것이다.
도 14는 본 발명에서 대표의상 모델 정의를 예시한 것이다.
도 15 및 도 16은 본 발명에서 대표의상 모델 정의에 따른 제작 예시도이다.
도 17은 본 발명에서 대표의상의 로컬 변형 수행 과정을 예시한 것이다.
도 18은 본 발명의 일 실시예에 따른 캐릭터 모델 예시도이다.
도 19 내지 도 21은 본 발명에서 캐릭터의 UV 텍스처 맵 예시도이다.
도 22 및 도 23은 본 발명의 일 실시예에 따른 최종 출력 이미지를 예시한 것이다.
1 and 2 are diagrams schematically showing the configuration of a system for providing real-time clothes replacement content according to an embodiment of the present invention.
3 to 5 are views showing a desk on which an AR beam projector according to an embodiment of the present invention is installed.
6 is a view showing a state of adjusting the position of the rear panel on the desk where the AR beam projector is installed according to an embodiment of the present invention.
7 is a view showing a state in which the top cover is removed from the insertion groove of the desk on which the AR beam projector is installed according to an embodiment of the present invention.
8 is an example of a screen of a user terminal according to an embodiment of the present invention.
9 exemplifies data transmitted from the user terminal to the providing server in the present invention.
10 to 13 illustrate a learning data construction process for generating an artificial intelligence 3D character costume model in the present invention.
14 is an illustration of a representative costume model definition in the present invention.
15 and 16 are diagrams illustrating manufacturing according to the definition of a representative costume model in the present invention.
17 illustrates a process of performing local transformation of representative clothes in the present invention.
18 is an exemplary diagram of a character model according to an embodiment of the present invention.
19 to 21 are exemplary views of a UV texture map of a character in the present invention.
22 and 23 illustrate a final output image according to an embodiment of the present invention.

본 명세서에서 개시된 실시 예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 개시에서 제안하고자 하는 실시 예는 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 당해 기술분야에서 통상의 지식을 가진 자에게 실시 예들의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the embodiments disclosed herein, and methods for achieving them will become apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the embodiments to be proposed in the present disclosure are not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments are provided to those of ordinary skill in the art. It is only provided to fully indicate the category.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시 예에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the disclosed embodiments will be described in detail.

본 명세서에서 사용되는 용어는 개시된 실시 예들의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 상세한 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 명세서의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in this specification have been selected as currently widely used general terms as possible while considering the functions of the disclosed embodiments, but may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the detailed description part of the corresponding specification. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the entire specification, rather than the simple name of the term.

본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.References in the singular herein include plural expressions unless the context clearly dictates the singular.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.In the entire specification, when a part "includes" a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. Also, as used herein, the term “unit” refers to a hardware component such as software, FPGA, or ASIC, and “unit” performs certain roles. However, "part" is not meant to be limited to software or hardware. A “unit” may be configured to reside on an addressable storage medium and may be configured to refresh one or more processors. Thus, by way of example, “part” includes components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functionality provided within components and “parts” may be combined into a smaller number of components and “parts” or further divided into additional components and “parts”.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

본 발명은 인공지능 기술을 활용하여 사용자가 입력한 2D 원화 그대로의 3D 모델을 생성하여 콘텐츠에 실시간으로 적용하는 기술이며, 인공지능 모델 생성을 위한 학습 데이터베이스 생성 방법과 실시간 콘텐츠 서비스를 위한 콘텐츠 서비스 플랫폼을 제안한다. The present invention is a technology that generates a 3D model of the 2D original image input by a user by using artificial intelligence technology and applies it to content in real time. suggest

도 1 및 도 2는 본 발명의 일 실시예에 따른 실시간 의상 교체 콘텐츠 제공 시스템의 구성을 개략적으로 나타낸 도면이다. 1 and 2 are diagrams schematically showing the configuration of a real-time clothes replacement content providing system according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 본 발명의 실시간 의상 교체 콘텐츠 제공 시스템은 생성 서버(100), 사용자 단말(200), AR 빔 프로젝터(B)를 포함한다. 1 and 2, the real-time clothes replacement content providing system of the present invention includes a generating server 100, a user terminal 200, and an AR beam projector (B).

사용자 단말(200)은 사용자 캐릭터 의상을 그릴 수 있는 캐릭터 의상 그리기 기능이 포함된 전용 어플리케이션이 설치되어 있는 단말이다. 예를 들어, 사용자 단말(200)은 이동통신망에 접속하여 통신이 가능하고 전용 어플리케이션을 설치할 수 있는 단말로서, 스마트폰, 태블릿 PC 등을 포함할 수 있다. The user terminal 200 is a terminal in which a dedicated application including a character costume drawing function capable of drawing a user character costume is installed. For example, the user terminal 200 is a terminal capable of communicating by connecting to a mobile communication network and installing a dedicated application, and may include a smartphone, a tablet PC, and the like.

생성 서버(100)는 사용자 단말(200)로부터 전용 어플리케이션의 캐릭터 의상 그리기 기능을 통해 사용자가 그린 사용자 그림 데이터를 수신하면, 수신한 사용자 그림 데이터에 대하여 인공지능 기반 3D 캐릭터 의상 모델을 생성하고, 생성된 3D 캐릭터 의상 모델을 AR 빔 프로젝트(B)에 제공한다. When the generation server 100 receives the user picture data drawn by the user through the character costume drawing function of the dedicated application from the user terminal 200, it generates an artificial intelligence-based 3D character costume model with respect to the received user picture data, and generates The 3D character costume model is provided to the AR beam project (B).

AR 빔 프로젝트(B)는 실사물로 구성된 콘텐츠의 프로젝션 영역에 AR(Augmented Reality) 화면을 조사하되, 생성 서버(100)로부터 수신한 3D 캐릭터 의상 모델을 적용한 AR 화면을 조사하는 역할을 한다. The AR beam project (B) irradiates an AR (Augmented Reality) screen to the projection area of the content composed of real objects, but serves to investigate the AR screen to which the 3D character costume model received from the generation server 100 is applied.

도 2에서 보는 바와 같이, 본 발명에서 콘텐츠는 그림이 그려진 실사물로 구현되며, 예를 들어 콘텐츠는 스토리북, AR 핑거스토리 북 등으로 구현될 수 있다.As shown in FIG. 2 , in the present invention, the content is implemented as a real object with pictures, for example, the content may be implemented as a storybook, an AR finger story book, and the like.

생성 서버(100)는 인공지능 기반 3D 캐릭터 의상 모델을 생성하기 위한 학습 데이터 구축 단계 및 사용자 단말(200)로부터 입력된 사용자 그림 데이터를 활용한 3D 의상 생성을 위한 준비 단계를 통해 3D 캐릭터 의상 모델을 생성할 수 있다. The generation server 100 creates a 3D character costume model through a learning data construction step for generating an artificial intelligence-based 3D character costume model and a preparation step for 3D costume creation using the user picture data input from the user terminal 200 can create

생성 서버(100)는 학습 데이터 구축 단계에서, 캐릭터 모델에 착장 가능한 기본 의상 모델로 구성된 모델링 학습 데이터, 기본 의상 모델로 구성된 각 의상에 대한 모델 데이터의 질감, 색상, UV 맵으로 구성된 질감 학습 데이터 및 콘텐츠 내에서 실시간으로 애니메이션을 지원할 수 있는 리깅 학습 데이터를 구축하는 과정인 기본 의상 데이터 구축 과정, 콘텐츠 내용에 특화된 의상 데이터 구축 과정, 콘텐츠 내 특화 의상에 대한 대표의상을 정의하는 과정 및 각 대표의상의 변형 영역을 지정해 의상을 변형시켜서 학습 모델을 확장시키는 학습모델 확장 과정을 수행할 수 있다. In the learning data building stage, the generation server 100 includes modeling learning data composed of a basic costume model that can be worn on a character model, texture learning data composed of texture, color, and UV maps of model data for each costume composed of a basic costume model, and The basic costume data construction process, which is the process of building rigging learning data that can support animation in real time within the content, the costume data construction process specialized for the content content, the process of defining the representative clothes for the specialized clothes in the content, and the process of each representative costume The learning model extension process can be performed to extend the learning model by changing the clothes by designating the transformation area.

도 8은 본 발명의 일 실시예에 따른 사용자 단말 화면예이다. 8 is an example of a screen of a user terminal according to an embodiment of the present invention.

도 8을 참조하면, 사용자 단말(200)에서는 전용 어플리케이션(앱)을 통해 캐릭터 의상 그리기 기능을 제공한다. 전용 앱에서는 사용자가 사용자 단말(200)을 통해 입력한 사용자 그림을 입력으로 받는다. 그리고, 사용자 그림을 밑색과 무늬로 구분하여 생성 서버(100)에 전달한다(Step1). Referring to FIG. 8 , the user terminal 200 provides a character costume drawing function through a dedicated application (app). In the dedicated app, a user picture input by the user through the user terminal 200 is received as an input. Then, the user picture is divided into a base color and a pattern and transmitted to the generating server 100 (Step1).

도 9는 본 발명에서 사용자 단말에서 제공 서버로 전달되는 데이터를 예시한 것이다. 9 exemplifies data transmitted from the user terminal to the providing server in the present invention.

도 9를 참조하면, 본 발명에서 사용자 그림을 입력으로 받는 앱으로 사용자가 그린 의상을 인공지능 기술을 이용하여 3D 모델을 추론하여 만들어야 하기 때문에 원피스의 원형 질감에 해당되는 드레스 밑색 레이어와 무늬 레이어를 분리하여 생성 서버(100)로 전송한다. Referring to FIG. 9 , in the present invention, since the costume drawn by the user must be made by inferring a 3D model using artificial intelligence technology with an app that receives a user picture as an input, the dress base color layer and the pattern layer corresponding to the circular texture of the dress are separated. It is separated and transmitted to the generation server 100 .

다음, 생성 서버(100)는 사용자와 사용자가 그린 사용자 그림을 식별하기 위한 식별번호 정보를 요청한다(Step2). 예를 들어, 사용자 단말(200)에서는 유저(User) ID(이름), 템플릿(Template) ID(Format index), 이미지1(드레스 밑색), 이미지2(드레스 무늬) 등의 데이터를 생성 서버(100)에 전송한다. Next, the generation server 100 requests identification number information for identifying the user and the user picture drawn by the user (Step2). For example, the user terminal 200 generates data such as a user ID (name), a template ID (format index), image 1 (dress base color), image 2 (dress pattern), and the like. ) is sent to

다음, 생성 서버(100)는 사용자 단말(200)에 요청 결과(Result)와 토근 ID(token ID)를 포함하는 식별번호를 부여한다(Step3).Next, the generation server 100 gives an identification number including a request result and a token ID to the user terminal 200 (Step3).

생성 서버(100)는 사용자 단말(200)로부터 전달된 이미지를 바탕으로 인공지능 기술 기반 3D 캐릭터 의상 모델을 생성한다(Step4). The generation server 100 generates a 3D character costume model based on artificial intelligence technology based on the image transmitted from the user terminal 200 (Step4).

생성 서버(100)는 인공지능 기반 3D 캐릭터 의상 모델을 생성하기 위하여, 학습 데이터를 구축 단계, 사용자 단말(200)로부터 입력된 사용자 그림 이미지를 활용한 3D 의상 생성을 위한 준비 단계를 통해 3D 캐릭터 의상 모델을 생성한다.The generation server 100 performs a 3D character costume through a preparation stage for creating a 3D costume using a user figure image input from the user terminal 200 and building learning data in order to generate an artificial intelligence-based 3D character costume model. create a model

생성 서버(100)는 학습 데이터 구축 단계에서 1) 기본 의상 데이터 구축, 2) 콘텐츠 내용에 특화된 의상 데이터 구축, 3) 콘텐츠 내 특화 의상에 대한 대표의상 정의, 4) 학습모델 확장 과정을 수행한다. The generation server 100 performs 1) basic clothes data construction, 2) clothes data specialized for content content, 3) representative clothes definition for specialized clothes in content, and 4) learning model expansion process in the learning data construction stage.

먼저, 1) 학습 데이터 중에서 기본 의상 데이터 구축 과정은 다음과 같다. First, 1) The basic clothes data construction process among the learning data is as follows.

인공지능 기술 기반 3D 의상 모델링 기술을 활용한 실시간 콘텐츠 서비스를 위해서는 응용 서비스에 적합한 학습 데이터 셋을 필요로 하여 캐릭터 모델이 착장 가능한 기본 의상 모델들로 구성된 모델링 학습 데이터를 구축한다. For real-time content service using 3D costume modeling technology based on artificial intelligence technology, a learning data set suitable for application service is required, and modeling learning data composed of basic clothes models that can be worn by character models are built.

그리고, 기본 의상 모델로 구성된 각 의상에 대한 모델데이터의 질감, 색상, UV맵으로 구성된 질감 학습 데이터를 구축한다. Then, texture learning data composed of texture, color, and UV map of model data for each costume composed of basic clothes model is constructed.

그리고, 콘텐츠 내에서 실시간으로 애니메이션 움직임을 지원할 수 있는 리깅 학습 데이터를 구축한다. And, rigging learning data that can support animation movement in real time within the content is built.

다음, 2) 콘텐츠 내용에 특화된 의상 데이터 구축 과정은 다음과 같다. Next, 2) The process of constructing clothes data specialized for content content is as follows.

사용자가 그린 의상 이미지를 보다 정확하게 3D로 재현하기 위해 특정 캐릭터가 주로 입고 등장하는 의상에 대해 별도의 학습 데이터를 구축한다. 예를 들어 “이상한 나라의 앨리스”의 앨리스 의상인 드레스 등의 학습 데이터를 구축한다. In order to more accurately reproduce the user-drawn costume image in 3D, separate learning data is built for the clothes that a specific character mainly wears. For example, learning data such as a dress, which is an Alice costume for "Alice in Wonderland", is constructed.

도 10 내지 도 13은 본 발명에서 인공지능 3D 캐릭터 의상 모델 생성을 위한 학습 데이터 구축 과정을 예시한 것이다.10 to 13 illustrate a learning data construction process for generating an artificial intelligence 3D character costume model in the present invention.

도 10에서 반팔, 긴팔의 여성 상의와 반바지, 긴바지의 여성 하의 등의 여성모델과 착장가능한 학습 데이터가 예시되어 있다. In FIG. 10, learning data that can be worn with female models such as short-sleeved, long-sleeved female tops and shorts, and long pants female bottoms are exemplified.

도 11에서 각 의상에 대한 모델의 질감과 UV맵이 예시되어 있다. In FIG. 11, the texture and UV map of the model for each costume are exemplified.

도 12에서 애니메이션 지원을 위한 리깅 데이터가 예시되어 있다. In FIG. 12 , rigging data for animation support is exemplified.

도 13에서 콘텐츠 내 캐릭터 착장에 필요한 옷 카테고리 학습 데이터가 예시되어 있다. In FIG. 13, the clothes category learning data required for wearing a character in the content is exemplified.

다음, 3) 콘텐츠 내 특화 의상에 대한 대표의상 정의 과정은 다음과 같다. Next, 3) The process of defining the representative costume for the specialized costume in the content is as follows.

콘텐츠 내 캐릭터에 적용하기 위한 학습 데이터는 사용자 그림의 다양성을 커버할 수 있도록 의상 카테고리별 대표 의상 모델을 정의하여 데이터베이스를 확보한다. For the learning data to be applied to the characters in the content, a database is secured by defining a representative costume model for each clothing category to cover the diversity of user drawings.

도 14는 본 발명에서 대표의상 모델 정의를 예시한 것이다.14 is an illustration of a representative costume model definition in the present invention.

도 14에서 민소매 원피스에 대한 대표의상 모델을 정의하기 위하여, 네크라인 형태, 허리라인, 치마 밑단, 치마폭, 치마길이/ 그외 등 다양한 구성요소 데이터 중에서 대표의상 모델을 정의한다.In FIG. 14 , in order to define a representative costume model for a sleeveless dress, a representative costume model is defined among various component data such as neckline shape, waist line, skirt hem, skirt width, and skirt length/others.

도 15 및 도 16은 본 발명에서 대표의상 모델 정의에 따른 제작 예시도이다. 15 and 16 are diagrams illustrating production according to the definition of a representative costume model in the present invention.

다음, 4) 학습모델 확장 과정에서 학습데이터의 확장을 위해 각 대표의상의 변형 영역을 지정해 컨트롤 포인트(Control Points)를 움직여 의상을 변형을 주는 형태로 학습모델을 확장시킨다. 도 17은 본 발명에서 대표의상의 로컬 변형 수행 과정을 예시한 것이다. Next, 4) In the learning model expansion process, for the expansion of the learning data, the learning model is extended in the form of transforming the clothes by designating the transformation area of each representative costume and moving the Control Points. 17 illustrates a process of performing local transformation of a representative costume in the present invention.

그리고, 생성 서버(100)는 사용자 그림 앱의 입력 이미지를 활용한 3D 의상 생성을 위한 준비 단계에서, 콘텐츠 내에 사용될 캐릭터의 모델의 UV 텍스처 맵에서 의상에 해당하는 부분의 텍스처를 지운 후, 별도의 템플릿으로 인덱스 처리하여 사용자의 이미지를 변형해서 처리할 수 있도록 한다. Then, the generation server 100 erases the texture of the part corresponding to the costume from the UV texture map of the model of the character to be used in the content in the preparation stage for 3D costume generation using the input image of the user picture app, and then separates the By indexing with a template, the user's image can be transformed and processed.

도 18은 본 발명의 일 실시예에 따른 캐릭터 모델 예시도이고, 도 19 내지 도 21은 본 발명에서 캐릭터의 UV 텍스처 맵 예시도이다. 18 is an exemplary view of a character model according to an embodiment of the present invention, and FIGS. 19 to 21 are exemplary views of a UV texture map of a character in the present invention.

도 19는 도 18의 캐릭터 모델에 대한 UV 텍스처 맵을 예시한 것이다. 19 illustrates a UV texture map for the character model of FIG. 18 .

그리고, 도 20은 UV 텍스처 맵 중 의상에 해당하는 영역을 별도의 템플릿으로 만들고 영역별로 그레이스케일을 다르게 지정하여 인덱스로 활용할 수 있도록 한 예시이다. And, FIG. 20 is an example of making an area corresponding to clothes in a UV texture map as a separate template and specifying a different gray scale for each area to be used as an index.

도 21은 캐릭터의 UV 텍스처 맵에서 의상 부분이 빠진 텍스처 맵을 도시한 것이다. 21 shows a texture map in which the clothing part is omitted from the character's UV texture map.

사용자 단말(200)에서는 콘텐츠 플레이를 담당하는 AR 빔 프로젝트(B)로 사용자 ID와 식별 번호를 전송한다. 본 발명에서 사용자 단말(200)은 사용자가 자기가 그린 그림을 기초로 3D 모델 생성이 완료되면, 바로 확인할 수 있도록 생성 서버(100)로부터 부여받은 식별번호를 AR 빔 프로젝트(B)로 전달한다(Step5). 예를 들어, 사용자 단말(200)은 유저 ID, 토근 ID를 AR 빔 프로젝트(B)로 전달할 수 있다. The user terminal 200 transmits the user ID and identification number to the AR beam project B in charge of content play. In the present invention, the user terminal 200 transmits the identification number given from the generation server 100 to the AR beam project B so that the user can immediately check when the 3D model creation is completed based on the picture drawn by the user ( Step5). For example, the user terminal 200 may deliver the user ID and token ID to the AR beam project (B).

다음, AR 빔 프로젝트(B)에서는 전달받은 식별번호에 해당하는 의상이 제작 완료되었는지 생성 서버(100)에 요청을 보내 진행상황을 확인한다(Step6). 예를 들어, AR 빔 프로젝트(B)는 Inquiry(진행상황)과 토근 ID를 생성 서버(100)에 전송할 수 있다. Next, in the AR beam project (B), a request is sent to the generation server 100 to check whether the clothes corresponding to the received identification number have been produced or not (Step6). For example, the AR beam project B may transmit an Inquiry (progress status) and a token ID to the generation server 100 .

3D 의상 모델 생성이 완료되면, 생성 서버(100)는 생성된 3D 의상 모델을 AR 빔 프로젝트(B)에 제공한다(Step7). 이때, 생성 서버(100)에서는 사용자 그림에 맞는 3D 모델의 메쉬(mesh)를 생성하고, 리깅 정보가 담긴 캐릭터 모델을 AR 빔 프로젝트(B)에 전달하며, 새롭게 생성된 캐릭터 메쉬에 맞는 UV맵을 자동으로 생성하여 콘텐츠에 함께 전달한다. 예를 들어, 생성 서버(100)는 이미지(texture), 생성 모델링(Fbx), 캐릭터 모델 이미지 등을 포함하는 3D 의상 모델 정보를 AR 빔 프로젝트(B)에 전송할 수 있다. When the 3D clothes model generation is completed, the generation server 100 provides the generated 3D clothes model to the AR beam project B (Step7). At this time, the generation server 100 generates a mesh of the 3D model that fits the user's drawing, delivers the character model containing the rigging information to the AR beam project (B), and generates a UV map suitable for the newly created character mesh. It is automatically generated and delivered along with the content. For example, the generation server 100 may transmit 3D costume model information including an image (texture), generation modeling (Fbx), a character model image, and the like to the AR beam project (B).

AR 빔 프로젝트(B)에서는 콘텐츠에 새롭게 생성된 의상을 실시간 적용하여 플레이한다. 예를 들어, 생성 서버(100)로부터 전달받은 인공지능 캐릭터 모델을 콘텐츠에 적용하여 실시간으로 AR 핑거 스토리(Finger Story) 콘텐츠를 플레이할 수 있다. 도 22 및 도 23은 본 발명의 일 실시예에 따른 최종 출력 이미지를 예시한 것이다.In AR Beam Project (B), newly created clothes are applied to the content in real time and played. For example, AR finger story content can be played in real time by applying the artificial intelligence character model received from the generation server 100 to the content. 22 and 23 illustrate a final output image according to an embodiment of the present invention.

본 발명의 일 실시예에서 AR 빔 프로젝터를 정해진 위치에 고정시키고, 실사물인 콘텐츠를 수납할 수 있는 공간 등 본 발명의 실시간 의상 교체 콘텐츠 제공 시스템을 최적으로 구현하도록 하기 위한 전용 책상을 제안하고자 한다. In one embodiment of the present invention, an AR beam projector is fixed at a predetermined position, and a dedicated desk for optimally implementing the real-time clothes replacement content providing system of the present invention, such as a space for accommodating actual content, is proposed.

이하에서는 본 발명에 의한 AR 빔 프로젝터가 설치되는 책상의 실시 예를 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, an embodiment of a desk on which the AR beam projector according to the present invention is installed will be described in detail with reference to the accompanying drawings.

도 3 내지 도 5은 본 발명의 일 실시예에 따른 AR 빔 프로젝터가 설치되는 책상을 보인 도면이다.3 to 5 are views showing a desk on which an AR beam projector according to an embodiment of the present invention is installed.

그리고, 도 6는 본 발명의 일 실시예에 따른 AR 빔 프로젝터가 설치되는 책상에서 후방패널의 위치를 조절하는 모습을 보인 도면이다.And, Figure 6 is a view showing the state of adjusting the position of the rear panel on the desk on which the AR beam projector is installed according to an embodiment of the present invention.

도 7는 본 발명의 일 실시예에 따른 AR 빔 프로젝터가 설치되는 책상의 삽입홈에서 탑커버를 빼내는 모습을 보인 도면이다.7 is a view showing a state in which the top cover is removed from the insertion groove of the desk on which the AR beam projector is installed according to an embodiment of the present invention.

본 발명에 의한 AR 빔 프로젝터가 설치되는 책상은 다리부(10)와, 상기 다리부(10)의 상단에 설치되는 상판(20)을 포함하여 구성된다.The desk on which the AR beam projector according to the present invention is installed includes a leg unit 10 and a top plate 20 installed on the upper end of the leg unit 10 .

상기 상판(20)은 상면에 고정부(21)가 설치되고, 일정 깊이의 삽입홈(22)이 형성되며, 수납홀(23)이 형성된다.The upper plate 20 has a fixing part 21 installed on its upper surface, an insertion groove 22 having a predetermined depth is formed, and a receiving hole 23 is formed.

상기 고정부(21)는 상판(20)의 상면에 프로젝션 영역(투사영역)을 형성하는 AR 빔 프로젝터(B)의 설치위치를 설정하는 것으로서, 상기 삽입홈(22)에 가까워지거나 멀어지는 방향으로 이동가능하게 설치된다. 이러한 고정부(21)는 한 쌍의 측방패널(21a)과, 상기 측방패널 (21a)의 후방 측면에 연결되는 후방패널 (21b)으로 구성된다.The fixing part 21 sets the installation position of the AR beam projector B that forms a projection area (projection area) on the upper surface of the upper plate 20, and moves in a direction closer to or away from the insertion groove 22. installed possible. This fixing part 21 is composed of a pair of side panels (21a) and a rear panel (21b) connected to the rear side of the side panel (21a).

상기 측방패널(21a)은 상판(20)의 상면 후방측에 설치되는 AR 빔 프로젝터(B)의 하단 양측면에 밀착된다. 이러한 측방패널(21a)의 전방 끝부분에는 AR 빔 프로젝터가 전방으로 움직이는 것을 막는 전방패널(21c)이 설치된다.The side panel 21a is in close contact with both sides of the lower end of the AR beam projector B installed on the rear side of the upper surface of the upper plate 20 . A front panel 21c is installed at the front end of the side panel 21a to prevent the AR beam projector from moving forward.

그리고, 측방패널(21a)에는 다수의 통기홀(21d)이 형성되어, AR 빔 프로젝터에서 발생되는 열을 외부로 배출시키고, AR 빔 프로젝터의 스피커를 통해 나오는 사운드를 음질 저하 없이 사용자에게 전달한다.In addition, a plurality of ventilation holes 21d are formed in the side panel 21a to dissipate heat generated by the AR beam projector to the outside, and the sound emitted through the speaker of the AR beam projector is delivered to the user without degrading the sound quality.

상기 후방패널(21b)은 양단이 상기 측방패널(21a)에 볼팅되어 고정되고, AR 빔 프로젝터(B)의 하단 후면에 밀착된다.Both ends of the rear panel 21b are fixed by being bolted to the side panel 21a, and are in close contact with the lower rear surface of the AR beam projector B.

따라서, 측방패널(21a)과 전방패널(21c)이 AR 빔 프로젝터(B)가 측방과 전방으로 이동하는 것을 막고, 후방패널(21b)이 AR 빔 프로젝터(B)가 후방으로 이동하는 것을 막음으로써, AR 빔 프로젝터(B)의 설치 위치가 견고하게 유지된다.Therefore, the side panel 21a and the front panel 21c prevent the AR beam projector B from moving laterally and forward, and the rear panel 21b prevents the AR beam projector B from moving backward. , the installation position of the AR beam projector B is firmly maintained.

한편, AR 빔 프로젝터(B)는 AR(Augmented Reality) 화면을 실사물(A)에 조사하여 실사물(A)에 디지털 정보를 제공하는 프로젝션 영역(Projection area)을 전방 일정거리 라인에서부터 형성하는데, 이 프로젝션 영역의 시작라인은 AR 빔 프로젝터(B)의 기종에 따라 달라질 수 있다.On the other hand, the AR beam projector (B) forms a projection area that provides digital information to the real object (A) by irradiating the AR (Augmented Reality) screen to the real object (A) from the front constant distance line, The starting line of the projection area may vary depending on the model of the AR beam projector (B).

이렇게 AR 빔 프로젝터(B)의 프로젝션 영역 시작 라인이 기종마다 다르기 때문에 AR 빔 프로젝터(B)의 설치위치를 앞뒤로 조금씩 조정하는 것이 필요하다. 본 발명에서는 AR 빔 프로젝터(B)의 설치위치를 조정하기 위해 상판(20)에 장공(24)을 형성하고, 이 장공(24) 내에서 이동하는 핸드스크류(25)를 후방패널(21b)과 체결하도록 하였다.Since the starting line of the projection area of the AR beam projector (B) is different for each model, it is necessary to slightly adjust the installation position of the AR beam projector (B) back and forth. In the present invention, a long hole 24 is formed in the upper plate 20 to adjust the installation position of the AR beam projector B, and the hand screw 25 moving in the long hole 24 is connected to the rear panel 21b and was made to contract.

부연하면, 상기 장공(24)은 AR 빔 프로젝터(B)를 향하는 쪽, 즉 전후방향으로 길게 상판(20)에 형성되는데, 핸드스크류(25)가 상판(20) 밑에서 장공(24)을 따라 이동한 후 특정 위치에서 후방패널(21b)과 체결된다. 이렇게 후방패널(21b)을 전후방향으로 이동시켜 AR 빔 프로젝터(B)가 원하는 곳에 위치되면 핸드스크류(25)를 후방패널(21b)에 체결하여 후방패널(21b)의 위치를 고정시킨다.In other words, the long hole 24 is formed in the upper plate 20 long in the direction toward the AR beam projector B, that is, in the front-rear direction, and the hand screw 25 moves along the long hole 24 under the upper plate 20 . After that, it is fastened with the rear panel 21b at a specific position. When the rear panel 21b is moved in the front-rear direction and the AR beam projector B is positioned at a desired location, the hand screw 25 is fastened to the rear panel 21b to fix the position of the rear panel 21b.

상기 삽입홈(22)은 문자나 그림과 같은 아날로그 정보가 인쇄된 보드나 종이와 같은 실사물(A)이 삽입되는 곳이다. 이러한 삽입홈(22)은 그 깊이가 실사물(A)의 두께와 동일하거나 비슷하게 형성되어 실사물(A) 한 장이 삽입홈(22) 내에 삽입된다.The insertion groove 22 is where the real object A, such as a board or paper, on which analog information such as characters or pictures is printed is inserted. The insertion groove 22 is formed to have a depth equal to or similar to the thickness of the actual object (A), so that one sheet of the actual object (A) is inserted into the insertion groove (22).

그리고, 삽입홈(22)의 일측단에는 삽입홈(22)과 연결되면서 삽입홈(22)보다 더 깊은 누름홈(22a)이 형성된다. 따라서 실사물(A)을 삽입홈(22)에 삽입하였을 때 실사물(A)의 일측단은 누름홈(22a) 위쪽에 위치된다. In addition, a pressing groove 22a deeper than the insertion groove 22 is formed at one end of the insertion groove 22 while being connected to the insertion groove 22 . Therefore, when the real object (A) is inserted into the insertion groove (22), one end of the real object (A) is located above the pressing groove (22a).

실사물(A)의 일측단이 누름홈(22a) 위쪽에 위치되므로, 실사물(A)의 일측단을 누름홈(22a) 안쪽으로 누르면 실사물(A)의 타측단이 위쪽으로 들어 올려지게 되어 타측단을 잡고 삽입홈(22)에서 실사물(A)을 쉽게 빼낼 수 있다.Since one end of the real object (A) is located above the pressing groove (22a), when one end of the real object (A) is pressed in the pressing groove (22a), the other end of the real object (A) is lifted upward. It is possible to easily take out the actual object (A) from the insertion groove (22) by holding the other end.

그리고, AR 빔 프로젝터(B)를 사용하지 않아서 삽입홈(22)에 실사물(A)을 삽입하지 않을 때에는 삽입홈(22) 내에 탑커버(C)를 설치하여 삽입홈(22)에 이물질이 들어가는 것을 막는다.And, when the real object (A) is not inserted into the insertion groove (22) because the AR beam projector (B) is not used, the top cover (C) is installed in the insertion groove (22) to prevent foreign substances in the insertion groove (22). prevent entry

상기 수납홀(23)은 상판(20)의 상면에 형성되는 것으로, 다수의 실사물(A)이 저장된다. 수납홀(23) 내에 실사물(A)이 꽂히면 실사물의 상부 일부분이 수납홀(23) 밖으로 돌출된다.The accommodating hole 23 is formed on the upper surface of the upper plate 20, and a plurality of actual objects A are stored therein. When the real object A is inserted into the accommodation hole 23 , the upper part of the real object protrudes out of the accommodation hole 23 .

한편, 상판(20)의 아래에는 다수의 서랍(30)이 구비되어 있다.On the other hand, a plurality of drawers 30 are provided under the top plate 20 .

상기 서랍(30)은 용도별로 분할되어 있다. 즉 도면에서 가장 왼쪽에 있는 서랍에는 알파벳 블록을 저장하고, 그 오른쪽 옆에 있는 서랍에는 한글 블록을 저장하며, 다시 그 오른쪽 옆에 있는 서랍에는 숫자 블록을 저장한다. 마지막으로 가장 오른쪽에 있는 서랍에는 실사물(A)을 저장한다. 이렇게 용도가 다른 각각의 서랍(30)이 상판(20)의 아래쪽에 슬라이딩 가능하게 구비되어 있다.The drawer 30 is divided by use. That is, the alphabet block is stored in the leftmost drawer in the drawing, the Hangul block is stored in the drawer next to the right side, and the number block is stored in the drawer next to the right side again. Finally, the real object (A) is stored in the rightmost drawer. Each of the drawers 30 with different uses is provided slidably below the top plate 20 .

그리고, 서랍(30)의 하부에는 다수의 실사물이 안착되는 거치대(40)가 구비되어 있다. In addition, the lower portion of the drawer 30 is provided with a cradle 40 on which a plurality of real objects are seated.

상기 거치대(40)는 실사물(A)을 수납하는 가장 오른쪽 서랍의 하측에 구비된다. 더불어 거치대(40)는 다수의 실사물(A)을 꽂아놓는 수납홀(23)의 하측에 위치된다. 따라서, 책상의 오른쪽 부분은 실사물(A)을 꽂아놓는 수납홀(23)과 실사물(A)을 수납하는 서랍 및 실사물(A)을 안착시키는 거치대(40)가 위아래로 형성되므로 실사물(A)의 정리를 좀 더 용이하게 할 수 있다.The cradle 40 is provided below the rightmost drawer for accommodating the real object (A). In addition, the cradle 40 is located below the storage hole 23 in which a plurality of real objects (A) are inserted. Therefore, on the right side of the desk, the storage hole 23 for inserting the real object (A), the drawer for accommodating the real object (A), and the cradle 40 for seating the real object (A) are formed up and down, so the real object (A) is formed up and down (A) can be made easier.

이상 본 발명을 몇 가지 바람직한 실시 예를 사용하여 설명하였으나, 이들 실시 예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.The present invention has been described above using several preferred embodiments, but these embodiments are illustrative and not restrictive. Those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made without departing from the spirit of the present invention and the scope of the rights set forth in the appended claims.

100: 제공 서버 200: 사용자 단말
10: 다리부 20: 상판
21: 고정부 21a: 측방패널
21b: 후방패널 21c: 전방패널
21d: 통기홀 22: 삽입홈
22a: 누름홈 23: 수납홀
24: 장공 25: 핸드스크류
30: 서랍 40: 거치대
A: 실사물 B: AR 빔 프로젝터
C: 탑커버
100: providing server 200: user terminal
10: leg 20: top plate
21: fixed part 21a: side panel
21b: rear panel 21c: front panel
21d: ventilation hole 22: insertion groove
22a: press groove 23: storage hole
24: long hole 25: hand screw
30: drawer 40: cradle
A: Real thing B: AR beam projector
C: top cover

Claims (3)

사용자 캐릭터 의상을 그릴 수 있는 캐릭터 의상 그리기 기능이 포함된 전용 어플리케이션이 설치되어 있는 사용자 단말;
상기 사용자 단말로부터 상기 전용 어플리케이션의 캐릭터 의상 그리기 기능을 통해 사용자가 그린 사용자 그림 데이터를 수신하면, 수신한 사용자 그림 데이터에 대하여 인공지능 기반 3D 캐릭터 의상 모델을 생성하고, 생성된 3D 캐릭터 의상 모델을 AR 빔 프로젝트에 제공하는 생성 서버; 및
실사물로 구성된 콘텐츠의 프로젝션 영역에 AR(Augmented Reality) 화면을 조사하되, 상기 생성 서버로부터 수신한 3D 캐릭터 의상 모델을 적용한 AR 화면을 조사하기 위한 AR 빔 프로젝트
를 포함하는 실시간 의상 교체 콘텐츠 제공 시스템.
a user terminal in which a dedicated application including a character costume drawing function capable of drawing a user character costume is installed;
When receiving the user picture data drawn by the user through the character costume drawing function of the dedicated application from the user terminal, an AI-based 3D character costume model is generated with respect to the received user picture data, and the generated 3D character costume model is AR A generation server that provides the beam project; and
AR beam project for irradiating an AR (Augmented Reality) screen in the projection area of the content composed of real objects, but applying the 3D character costume model received from the generation server
A real-time clothing replacement content provision system that includes.
청구항 1에 있어서,
상기 생성 서버는 인공지능 기반 3D 캐릭터 의상 모델을 생성하기 위한 학습 데이터 구축 단계 및 상기 사용자 단말로부터 입력된 사용자 그림 데이터를 활용한 3D 의상 생성을 위한 준비 단계를 통해 3D 캐릭터 의상 모델을 생성하는 것을 특징으로 하는 실시간 의상 교체 콘텐츠 제공 시스템.
The method according to claim 1,
The generation server generates a 3D character costume model through a learning data construction step for generating an artificial intelligence-based 3D character costume model and a preparation step for 3D costume creation using the user figure data input from the user terminal A system for providing real-time clothing replacement content with
청구항 2에 있어서,
상기 생성 서버는 상기 학습 데이터 구축 단계에서,
캐릭터 모델에 착장 가능한 기본 의상 모델로 구성된 모델링 학습 데이터, 기본 의상 모델로 구성된 각 의상에 대한 모델 데이터의 질감, 색상, UV 맵으로 구성된 질감 학습 데이터 및 콘텐츠 내에서 실시간으로 애니메이션을 지원할 수 있는 리깅 학습 데이터를 구축하는 과정인 기본 의상 데이터 구축 과정;
콘텐츠 내용에 특화된 의상 데이터 구축 과정;
콘텐츠 내 특화 의상에 대한 대표의상을 정의하는 과정; 및
각 대표의상의 변형 영역을 지정해 의상을 변형시켜서 학습 모델을 확장시키는 학습모델 확장 과정을 수행하는 것을 특징으로 하는 실시간 의상 교체 콘텐츠 제공 시스템.
3. The method according to claim 2,
The generating server in the learning data building step,
Modeling training data consisting of basic clothing models that can be worn on character models, texture training data consisting of texture, color, and UV maps of model data for each costume consisting of basic clothing models, and rigging learning that can support animation in real time within content basic clothing data construction process, which is the process of building data;
The process of constructing clothes data specialized for content content;
The process of defining the representative costume for the specialized costume in the content; and
A real-time clothing replacement content providing system, characterized in that the learning model extension process is performed to extend the learning model by changing the costume by designating the transformation area of each representative costume.
KR1020200187038A 2020-12-30 2020-12-30 System for providing real-time costume replacement contents with AR beam project KR102457954B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200187038A KR102457954B1 (en) 2020-12-30 2020-12-30 System for providing real-time costume replacement contents with AR beam project

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200187038A KR102457954B1 (en) 2020-12-30 2020-12-30 System for providing real-time costume replacement contents with AR beam project

Publications (2)

Publication Number Publication Date
KR20220095483A true KR20220095483A (en) 2022-07-07
KR102457954B1 KR102457954B1 (en) 2022-10-24

Family

ID=82398319

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200187038A KR102457954B1 (en) 2020-12-30 2020-12-30 System for providing real-time costume replacement contents with AR beam project

Country Status (1)

Country Link
KR (1) KR102457954B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101794731B1 (en) * 2016-11-10 2017-11-08 한국과학기술연구원 Method and device for deforming a template model to create animation of 3D character from a 2D character image
KR102049359B1 (en) * 2018-11-28 2019-11-27 제이에스씨(주) Method and system for providing intelligent 3D character model based on cloud search engine
KR20200055841A (en) * 2018-11-12 2020-05-22 한국전자통신연구원 Learning data set generating apparatus and method for machine learning
KR20200137766A (en) 2019-05-31 2020-12-09 주식회사 에듀앤플레이 Smart education systems and methods configured for changes in the market for infant institutions

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101794731B1 (en) * 2016-11-10 2017-11-08 한국과학기술연구원 Method and device for deforming a template model to create animation of 3D character from a 2D character image
KR20200055841A (en) * 2018-11-12 2020-05-22 한국전자통신연구원 Learning data set generating apparatus and method for machine learning
KR102049359B1 (en) * 2018-11-28 2019-11-27 제이에스씨(주) Method and system for providing intelligent 3D character model based on cloud search engine
KR20200137766A (en) 2019-05-31 2020-12-09 주식회사 에듀앤플레이 Smart education systems and methods configured for changes in the market for infant institutions

Also Published As

Publication number Publication date
KR102457954B1 (en) 2022-10-24

Similar Documents

Publication Publication Date Title
Sherman et al. Understanding virtual reality: Interface, application, and design
Kolko Representing bodies in virtual space: The rhetoric of avatar design
Javornik et al. MagicFace: Stepping into character through an augmented reality mirror
US10071316B2 (en) Systems and methods for creating a playable video game from a three-dimensional model
Hughes Virtual worlds, augmented reality, blended reality
US20200316475A9 (en) Systems and methods for creating a playable video game from a three-dimensional model
Rieser The mobile audience: media art and mobile technologies
Cudworth Virtual world design
KR102457954B1 (en) System for providing real-time costume replacement contents with AR beam project
Helle et al. Miracle Handbook: Guidelines for Mixed Reality Applications for culture and learning experiences
Aurelia et al. A survey on mobile augmented reality based interactive storytelling
Figueiredo et al. Augmented reality as a new media for supporting mobile-learning
Paterson et al. Location-aware interactive game audio
Bluff Interactive art, immersive technology and live performance
Coles Potential Applications of Transmedia Storytelling for Fostering SDG Awareness and Action
Zhang et al. Augmented Reality Technology in Painting Display
Aurelia et al. A survey on mobile augmented reality based interactive, collaborative and location based storytelling
Huang et al. An experience-based Chinese Opera using live video mapping
Weerasinghe et al. Playing with the Artworks: A Personalised Artwork Experience.
KR20170090625A (en) Method for realizing three-dimensional puzzle application
Mills Future dialogs for illustration
Grassi teamLab Borderless: The Role of Play in Immersive, Interactive Installations
KR20220001695U (en) Desk with AR beam projector
Dethridge The magic realism of a virtual second life
Yorks Professor Scott Jensen Senior Research VC498-01 3 December 2019

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant