KR102479374B1 - Map Generation System using 3D rendering - Google Patents

Map Generation System using 3D rendering Download PDF

Info

Publication number
KR102479374B1
KR102479374B1 KR1020210182303A KR20210182303A KR102479374B1 KR 102479374 B1 KR102479374 B1 KR 102479374B1 KR 1020210182303 A KR1020210182303 A KR 1020210182303A KR 20210182303 A KR20210182303 A KR 20210182303A KR 102479374 B1 KR102479374 B1 KR 102479374B1
Authority
KR
South Korea
Prior art keywords
image
character
images
rendering
received
Prior art date
Application number
KR1020210182303A
Other languages
Korean (ko)
Inventor
유진
Original Assignee
유진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유진 filed Critical 유진
Priority to KR1020210182303A priority Critical patent/KR102479374B1/en
Application granted granted Critical
Publication of KR102479374B1 publication Critical patent/KR102479374B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A map generation system using 3D rendering includes: a communication part that receives data from the outside; and a control part that analyzes, when the plurality of images are received, an image tone including color, atmosphere, and design of the plurality of images received, stores analyzed image tones corresponding to the plurality of images, and generates, when a requested image is received to generate a map using 3D rendering, a 3D image corresponding to the requested image based on an image tone selected among the plurality of image tones stored.

Description

3D 랜더링을 이용한 맵생성 시스템{Map Generation System using 3D rendering}Map Generation System using 3D rendering {Map Generation System using 3D rendering}

본 발명은 3D 랜더링을 이용한 맵생성 시스템에 관한 것으로, 보다 상세하게는 3D 맵을 생성하는 3D 랜더링을 이용한 맵생성 시스템에 관한 것이다.The present invention relates to a system for generating a map using 3D rendering, and more particularly, to a system for generating a map using 3D rendering for generating a 3D map.

랜더링(Randering)은 게임 등에 사용하는 컴퓨터 그래픽 기술로 현실세계 또는 가상의 세계를 표현하는 메타버스와 같은 기술로 컴퓨터 프로그램을 사용하여 모델로부터 영상을 만들어내는 과정을 말한다. 이와 같은 가상세계를 구현하는 메타버스 기술 즉, 3D랜더링 기술을 통해 사물이나 장소를 직접 만들거나 가보지 않아도 실제 보는 것과 같은 현실적 체험이 가능하다. 또한, 메타버스와 같은 3차원 가상세계를 구현하여 게임을 즐기거나 비대면임에도 실감나는 다양한 체험을 할 수 있는 것이 가능하다.Rendering is a computer graphics technology used in games, etc. It refers to the process of creating an image from a model using a computer program with a technology such as metaverse that expresses the real or virtual world. Through metaverse technology that implements such a virtual world, that is, 3D rendering technology, it is possible to experience the same realistic experience as actually seeing things or places without having to directly create or visit them. In addition, it is possible to enjoy games by implementing a three-dimensional virtual world such as the metaverse or to experience various realistic experiences even though non-face-to-face.

그러나 현재 랜더링(Randering) 기술을 이용하여 온라인 상으로 구축된 3D 맵은 기술적으로는 3D를 구현한 것으로 보이나 실제로 보이는 것은 2.5D 정도로 사용자에게 보여지는 것이 현실이다. 또한, 현재 랜더링(Randering) 기술은 의뢰영상을 보고 그대로 3D 맵핑을 하는 것으로 실감은 있으나 다양한 디자인을 구현하고 있지 못하므로 사용자가 원하는 경우 디자인의 다양성을 구현하고 있지 못하다.However, a 3D map constructed online using a current rendering technology technically appears to be 3D implemented, but in reality, the actual view is shown to the user at about 2.5D. In addition, the current rendering technology performs 3D mapping as it is after seeing the requested image, and although it is realistic, it does not implement various designs, so it does not implement the diversity of designs if the user desires.

따라서 본 발명의 목적은 실감나는 가상 현실세계에 대한 3D맵핑을 하면서 다양한 디자인을 구현할 수 있는 3D 랜더링을 이용한 맵생성 시스템을 제공하는 것이다.Accordingly, an object of the present invention is to provide a map generation system using 3D rendering capable of realizing various designs while 3D mapping a realistic virtual reality world.

상기 목적을 달성하기 위한 본 발명에 따른 3D 랜더링을 이용한 맵생성 시스템은, 외부로부터 데이터를 수신하는 통신부; 복수의 영상을 수신하면 수신된 복수의 영상의 색상, 분위기 및 디자인을 포함하는 영상톤을 분석하고, 상기 복수의 영상에 대응하여 분석된 상기 영상톤을 저장하며, 3D랜더링을 이용하여 맵을 생성하기 위한 의뢰영상을 수신하면 저장된 복수의 상기 영상톤 중 선택된 영상톤에 기초하여 상기 의뢰영상에 대응하는 3D영상을 생성하는 제어부를 포함한다. 3D 랜더링을 이용한 3D 맵핑을 하면서 다양한 영상톤을 적용하여 맵핑을 할 수 있으므로 사용자가 원하는 다양한 디자인을 제공할 수 있다.To achieve the above object, a map generation system using 3D rendering according to the present invention includes a communication unit for receiving data from the outside; When multiple images are received, image tones including color, atmosphere, and design of the received multiple images are analyzed, the analyzed image tones corresponding to the plurality of images are stored, and a map is created using 3D rendering. and a control unit for generating a 3D image corresponding to the requested image based on a selected image tone among a plurality of stored image tones when a request image for processing is received. While performing 3D mapping using 3D rendering, mapping can be done by applying various image tones, so various designs desired by the user can be provided.

여기서, 상기 3D영상을 표시하는 디스플레이부를 더 포함하며, 상기 제어부는, 상기 3D영상에 대응하여 복수의 캐릭터영상을 상기 디스플레이부에 표시하며, 상기 복수의 캐릭터영상 중 선택된 캐릭터영상을 상기 3D영상 내에 배치하면 여러 가지의 캐릭터영상을 다양한 영상톤을 적용하여 맵핑된 3D영상 내에 적용할 수 있어 바람직하다.Here, a display unit for displaying the 3D image is further included, and the control unit displays a plurality of character images corresponding to the 3D image on the display unit, and a character image selected from among the plurality of character images is displayed in the 3D image. When arranged, various character images can be applied to the mapped 3D image by applying various image tones, which is preferable.

그리고 상기 제어부는, 상기 디스플레이부에 표시되는 상기 복수의 캐릭터영상 중 적어도 하나는 상기 3D영상에 대응하는 영상톤을 갖는 3D영상이면 여러 가지의 캐릭터영상의 디자인 또한, 다양한 영상톤을 적용할 수 있어 바람직하다.And, if at least one of the plurality of character images displayed on the display unit is a 3D image having an image tone corresponding to the 3D image, various character image designs and various image tones can be applied. desirable.

여기서, 상기 제어부는, 사용자의 안면을 포함하는 두상영상을 수신하며, 상기 선택된 캐릭터영상의 두상을 상기 사용자의 두상영상으로 대체하여 배치하면 공식 회의와 같은 경우 본인을 인증하여야 진행될 수 있는데 이러한 경우 본인의 두상을 이용하여 신뢰감을 줄 수 있어 바람직하다.Here, if the control unit receives a head image including the user's face, and replaces the head image of the selected character image with the user's head image, in the case of an official meeting, the user must be authenticated to proceed. In this case, the user It is desirable to use the image of the head to give confidence.

그리고 상기 제어부는, 상기 3D영상에 대응한 복수의 캐릭터 및 상기 복수의 캐릭터를 꾸밀 수 있는 복수의 캐릭터 아이템을 제공하는 캐릭터숍을 포함하는 캐릭터 정보를 저장하며, 상기 복수의 캐릭터 중 적어도 하나 및 상기 복수의 캐릭터 아이템 중 적어도 하나를 수신하면, 수신된 상기 캐릭터 정보에 기초하여 정지 및 이동되는 캐릭터영상을 캐릭터화 하면 캐릭터의 디자인을 다양하게 꾸밀 수 있어 바람직하다.And the control unit stores character information including a plurality of characters corresponding to the 3D image and a character shop providing a plurality of character items capable of decorating the plurality of characters, and at least one of the plurality of characters and the When at least one of a plurality of character items is received, characterization of a character image that is stopped or moved based on the received character information is preferable because it is possible to decorate the character in various ways.

본 발명에 따르면 3D 랜더링을 이용한 3D 맵핑을 하면서 다양한 영상톤을 적용하여 맵핑을 할 수 있으므로 사용자가 원하는 다양한 디자인을 제공할 수 있는 효과가 있다.According to the present invention, since mapping can be performed by applying various image tones while performing 3D mapping using 3D rendering, various designs desired by the user can be provided.

도 1은 본 발명에 따른 3D 랜더링을 이용한 맵생성 시스템의 맵핑 예시도이다.
도 2는 3D 랜더링을 이용한 맵생성 시스템을 이용한 실외 및 실내 맵핑의 예시도이다.
도 3은 복수의 캐릭터영상의 예시도이다.
도 4는 캐릭터영상의 사용자 두상을 적용하는 동작도이다.
도 5는 3D영상 내에서 캐릭터 아이템의 이용 예시도이다.
도 6은 3D 랜더링을 이용한 3D 맵생성 흐름도이다.
1 is an exemplary mapping diagram of a map generation system using 3D rendering according to the present invention.
2 is an exemplary view of outdoor and indoor mapping using a map generation system using 3D rendering.
3 is an exemplary view of a plurality of character images.
4 is an operation diagram of applying a user's head to a character image.
5 is an example of using a character item in a 3D image.
6 is a flowchart of 3D map creation using 3D rendering.

이하, 첨부된 도면들을 참조하면서 본 발명의 바람직한 실시 예에 따른 3D 랜더링을 이용한 맵생성 시스템(1)을 상세히 설명한다.Hereinafter, a map generation system 1 using 3D rendering according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 3D 랜더링을 이용한 맵생성 시스템(1)의 맵핑 예시도이다.1 is an exemplary mapping diagram of a map generating system 1 using 3D rendering according to the present invention.

도 1을 참조하여 설명하면, 3D 랜더링을 이용한 맵생성 시스템(1)은 통신부(10), 사용자 입력부(20), 디스플레이부(30), 카메라(40) 및 제어부(50)를 포함한다.Referring to FIG. 1 , a map generation system 1 using 3D rendering includes a communication unit 10, a user input unit 20, a display unit 30, a camera 40, and a control unit 50.

통신부(10)는 외부장치와 통신할 수 있고, 외부의 데이터를 수신하며 데이터를 송신할 수 있다. The communication unit 10 can communicate with an external device, receive external data, and transmit data.

사용자 입력부(20)는 사용자의 명령을 입력하는 수단으로 키보드, 마우스, 터치패널, 모션인식부 및 음성인식부 등으로 구현될 수 있다.The user input unit 20 is a means for inputting a user's command and may be implemented as a keyboard, mouse, touch panel, motion recognition unit, voice recognition unit, and the like.

디스플레이부(30)는 3D영상, 의뢰영상, 캐릭터 및 캐릭터 아이템을 표시할 수 있다.The display unit 30 may display 3D images, requested images, characters, and character items.

카메라(40)는 이동 가능하게 마련되어 외부의 영상을 촬영할 수 있다.The camera 40 is provided to be movable and can capture an external image.

제어부(50)는 복수의 영상을 수신하면 수신된 복수의 영상의 색상, 분위기 및 디자인을 포함하는 영상톤을 분석하고, 복수의 영상에 대응하여 분석된 영상톤을 저장하며, 3D랜더링을 이용하여 맵을 생성하기 위한 의뢰영상을 수신하면 저장된 복수의 영상톤 중 선택된 영상톤에 기초하여 의뢰영상에 대응하는 3D영상을 생성할 수 있다.When a plurality of images are received, the control unit 50 analyzes image tones including colors, atmospheres, and designs of the plurality of images received, stores the analyzed image tones corresponding to the plurality of images, and uses 3D rendering. When a request image for generating a map is received, a 3D image corresponding to the requested image may be generated based on a selected image tone among a plurality of stored image tones.

여기서, 제어부(50)는 통신부(10)를 제어하여 네트워크 상에서 복수의 영상을 검색할 수 있다. 제어부(50)는 다양한 디자인의 영상을 수집할 수 있다. 이를 테면, 계절별 자연 즉, 동일한 장소의 4계절의 영상, 다양한 장소에서의 4계절 영상, 각 계절 별 날씨에 다른 영상 등이 될 수 있다. 또한, 지형별 자연 즉, 동일한 장소를 서로 다른 각도에서 촬영한 영상, 동일한 장소의 시간대마다의 영상 등이 될 수 있다. 또한, 영화카테고리, 드라마카테고리, 애니메이션카테고리, 시대별 그림, 시대별 건축물 및 지역별 자연 등의 영상을 포함하여 다양한 디자인의 영상을 수집하여 저장할 수 있다.Here, the controller 50 may control the communication unit 10 to search for a plurality of images on the network. The controller 50 may collect images of various designs. For example, it may be nature by season, that is, images of four seasons in the same place, images of four seasons in various places, and images of different weather for each season. In addition, it may be nature by terrain, that is, images of the same place taken from different angles, images of the same place for each time period, and the like. In addition, images of various designs can be collected and stored, including images of movie categories, drama categories, animation categories, pictures by period, architecture by period, and nature by region.

여기서, 제어부(50)는 상기의 복수의 디자인 영상 중 적어도 하나 이상의 영상을 기초로 하여 영상톤을 생성할 수도 있다. 또는, 제어부(50)는 상기의 복수의 디자인 영상 중 적어도 하나는 설정하는 영역에만 적용될 수도 있다. 또는, 제어부(50)는 상기의 복수의 디자인 영상 중 적어도 하나는 투명성을 갖고 배경으로 적용될 수도 있다. 상기의 경우들을 제어부(50)는 모드로 마련하여 사용자에게 제공할 수도 있다. 사용자는 이에 다양한 디자인을 단독 또는 복수이 디자인을 다양한 방법으로 적용하여 꾸밀 수 있다.Here, the controller 50 may generate an image tone based on at least one image among the plurality of design images. Alternatively, the control unit 50 may be applied only to a region where at least one of the plurality of design images is set. Alternatively, the controller 50 may have transparency and apply at least one of the plurality of design images as a background. The control unit 50 may prepare the above cases as a mode and provide them to the user. Accordingly, the user can decorate the various designs by applying single or multiple designs in various ways.

제어부(50)는 3D영상에 대응하여 복수의 캐릭터영상을 디스플레이부(30)에 표시하며, 복수의 캐릭터영상 중 선택된 캐릭터영상을 3D영상 내에 배치할 수 있다. 도 3을 참조하면 복수의 캐릭터영상을 확인할 수 있다. 도 3 (a)는 신데렐라, 도 3 (b)는 아이언맨, 도 3 (c)는 양반의 캐릭터영상으로 본인이 원하는 디자인의 캐릭터영상을 본인의 캐릭터영상으로 적용하여 3D영상 내에서 이동할 수 있도록 할 수도 있다.The control unit 50 may display a plurality of character images corresponding to the 3D image on the display unit 30, and arrange a selected character image among the plurality of character images in the 3D image. Referring to FIG. 3 , a plurality of character images can be identified. Figure 3 (a) is Cinderella, Figure 3 (b) is Iron Man, and Figure 3 (c) is a character image of a nobleman. By applying the character image of the design desired by the person to the character image of the person, so that they can move within the 3D image You may.

제어부(50)는 디스플레이부(30)에 표시되는 복수의 캐릭터영상 중 적어도 하나는 3D영상에 대응하는 영상톤을 갖는 3D영상일 수 있다. 제어부(50)는 캐릭터영상을 설정하는 데에 있어서 네트워크를 통해 수집된 영상 및 혼합된 영상을 이용하여 생성한 복수의 영상톤 중 적어도 하나를 적용하여 캐릭터를 꾸밀 수 있다. In the controller 50, at least one of the plurality of character images displayed on the display unit 30 may be a 3D image having an image tone corresponding to the 3D image. In setting the character image, the controller 50 may decorate the character by applying at least one of a plurality of image tones generated using images collected through a network and mixed images.

제어부(50)는 사용자의 안면을 포함하는 두상영상을 수신하며, 선택된 캐릭터영상의 두상을 사용자의 두상영상으로 대체하여 배치할 수 있다. 이렇게 캐릭터의 영상 중 두상을 본인의 두상영상으로 바꾸면 3D영상 내에서 본인을 인증하여야 하는 경우 이를 테면 가상화상회의를 진행한다거나 가상발표를 한다거나 가상세미나를 한다거나 가상전람회를 참석하다거나 하는 경우 캐릭터의 두상으로 직관적으로 누구인지를 확인할 수 있으므로 누구인지를 확인하는 작업이 필요하지 않으므로 가상화상회의, 가상발표, 가상세미나 및 가상전람회 등에서 각각의 효율을 향상시킬 수 있다.The controller 50 may receive a head image including the user's face, replace the head image of the selected character image with the user's head image, and arrange it. If you change the head image of the character image to your own head image in this way, if you need to authenticate yourself within the 3D image, for example, if you are holding a virtual meeting, giving a virtual presentation, holding a virtual seminar, or attending a virtual exhibition, the character's head image Since it is possible to intuitively check who it is, it is not necessary to check who it is, so each efficiency can be improved in virtual virtual conferences, virtual presentations, virtual seminars, and virtual exhibitions.

제어부(50)는 3D영상에 대응한 복수의 캐릭터 및 복수의 캐릭터를 꾸밀 수 있는 복수의 캐릭터 아이템을 제공하는 캐릭터숍을 포함하는 캐릭터 정보를 저장하며, 복수의 캐릭터 중 적어도 하나 및 복수의 캐릭터정보 중 적어도 하나를 수신하면, 수신된 캐릭터 정보에 기초하여 정지 및 이동되는 캐릭터영상을 캐릭터화할 수 있다. 3D영상 내에서는 다양한 가상화상회의, 가상발표, 가상세미나 및 가상전람회 등에 참석할 수도 있으며, 가상연주회, 가상무도회, 가상체육, 가상대결 등도 이루어질 수 있다. 이러한 경우는 각각의 경우에 대응하는 격식이 있을 수 있으며 이를 위하여 복수의 캐릭터 아이템이 필요하므로 캐릭터영상을 꾸밀 수도 있다. The control unit 50 stores character information including a plurality of characters corresponding to 3D images and a character shop providing a plurality of character items capable of decorating the plurality of characters, and at least one of the plurality of characters and the plurality of character information When at least one of the above is received, a character image that is stopped and moved may be characterized based on the received character information. In the 3D image, various virtual conferences, virtual presentations, virtual seminars and virtual exhibitions can be attended, and virtual concerts, virtual balls, virtual sports, and virtual competitions can also be performed. In this case, there may be a formality corresponding to each case, and since a plurality of character items are required for this, a character image may be decorated.

도 2는 3D 랜더링을 이용한 맵생성 시스템(1)을 이용한 실외 및 실내 맵핑의 예시도이다.2 is an exemplary view of outdoor and indoor mapping using the map generating system 1 using 3D rendering.

도 2의 예시는 다양한 영상톤을 적용하지 않은 경우의 실외와 실내의 3D영상이다. 여기에 이를 테면 피카소의 우는 여인과 이중섭의 투계의 영상을 이용하여 생성한 영상톤을 적용하여 실제 모습의 실외와 실내가 적용한 영상톤으로 변경되어 구조는 동일하지만 다른 건물의 외형과 실내인 것처럼 다르게 보일 수도 있다.The example of FIG. 2 is an outdoor and indoor 3D image when various image tones are not applied. Here, for example, by applying image tones created using images of Picasso's Weeping Woman and Lee Jung-seop's cockfighting images, the outdoor and indoor images of the actual appearance are changed to the applied image tones, so the structure is the same, but the exterior and interior of other buildings are different as if they were indoors. may be seen

도 4는 캐릭터영상의 사용자 두상을 적용하는 동작도이다.4 is an operation diagram of applying a user's head to a character image.

도 4 (a) 사용자가 본인의 두상의 영상을 다양한 방향에서 복수로 촬영한다. 4 (a) A user captures a plurality of images of his or her head in various directions.

도 4 (b) 제어부(50)는 사용자가 촬영한 복수의 사용자 두상에 대한 영상을 이용하여 3D 두상영상을 생성한다. 여기서, 경우에 따라서는 사용자의 3D두상영상 중 피부나 머리는 3D영상에 적용된 영상톤과 동일한 영상톤이 적용되도록 할 수도 있다. 사용자의 3D두상영상 중 피부나 머리는 3D영상에 적용된 영상톤과 동일한 영상톤이 적용되지 않고 사용자가 촬영한 복수의 사용자 두상영상을 그대로 적용할 수도 있다. 4 (b), the control unit 50 generates a 3D head image using images of a plurality of user heads captured by the user. Here, in some cases, the same image tone as that applied to the 3D image may be applied to the skin or head of the 3D head image of the user. Among the 3D head images of the user, the same image tone as that applied to the 3D image is not applied to the skin or head, and a plurality of user head images captured by the user may be applied as they are.

도 4 (c) 생성된 사용자의 3D두상영상을 캐릭터인 신데렐라에 적용할 수 있다.4 (c), the generated 3D head image of the user can be applied to the character Cinderella.

도 4 (d) 캐릭터가 적용된 사용자의 캐릭터영상을 3D영상 내에 배치하여 이동 및 정지 시에 대응하여 생성된 사용자의 3D두상영상이 신데렐라의 캐릭터에 배치되어 이동 및 정지되도록 할 수 있다.4 (d) The user's character image to which the character is applied is placed in the 3D image so that the user's 3D head image created in response to movement and stop is placed on Cinderella's character so that it moves and stops.

도 5는 3D영상 내에서 캐릭터 아이템의 이용 예시도이다.5 is an example of using a character item in a 3D image.

도 5 (a) 캐릭터 아이템으로 노트이다.5 (a) is a note as a character item.

도 5 (b) 3D영상 내에서 이동하고 있다가 누군가가 질문을 하는 경우 사용자는 캐릭터 아이템인 노트를 터치하여 설명영역을 형성하게 한 후 그림에서 B를 A에서 우측으로 분리하면서 설명을 할 수 있다. 이와 같이 현실에서는 불가능한 것을 가상의 3D 영상 내에서 간편하게 구현할 수도 있다. 캐릭터 아이템은 설명을 위한 것뿐만 아니라 대결을 위한 캐릭터 아이템, 시뮬레이션을 위한 캐릭터 아이템 등으로 다양하게 마련될 수 있다.5 (b) If someone asks a question while moving within the 3D image, the user touches a note, a character item, to form an explanation area, and then separates B from A to the right in the picture and explains it. . In this way, what is impossible in reality can be easily implemented in a virtual 3D image. The character item may be variously provided, such as a character item for a confrontation and a character item for a simulation, as well as for explanation.

도 6은 3D 랜더링을 이용한 3D 맵생성 흐름도이다.6 is a flowchart of 3D map creation using 3D rendering.

복수이 영상을 수신한다(S1). 제어부(50)는 네트워크 상에서 복수의 영상을 검색하며, 다양한 디자인의 영상(동일한 장소의 4계절의 영상, 다양한 장소에서의 4계절 영상, 각 계절 별 날씨에 다른 영상 등의 계저절별 자연, 동일한 장소를 서로 다른 각도에서 촬영한 영상, 동일한 장소의 시간대마다의 영상 등의 지형별 자연, 영화카테고리, 드라마카테고리, 애니메이션카테고리, 시대별 그림, 시대별 건축물 및 지역별 자연 등의 영상 등)을 수신하여 수집 저장할 수 있다. A plurality of images are received (S1). The controller 50 searches for a plurality of images on the network, and images of various designs (images of 4 seasons in the same place, 4 seasons in various places, nature by season, such as images with different weather for each season, same place) images taken from different angles, images of the same place at different times of the day, etc.) received and collected) can be saved

수신된 복수의 영상의 색상, 분위기 및 디자인을 포함하는 영상톤을 분석한다(S2).Image tones including color, atmosphere, and design of a plurality of received images are analyzed (S2).

복수의 영상에 대응하여 분석된 영상톤을 저장한다(S3).The analyzed image tones corresponding to the plurality of images are stored (S3).

3D랜더링을 이용하여 맵을 생성하기 위한 의뢰영상을 수신한다(S4).A request image for generating a map using 3D rendering is received (S4).

저장된 복수의 영상톤 중 선택된 영상톤에 기초하여 의뢰영상에 대응하는 3D영상을 생성한다(S5).A 3D image corresponding to the requested image is generated based on a selected image tone among a plurality of stored image tones (S5).

3D영상에 대응하여 복수의 캐릭터영상을 표시하다(S6).A plurality of character images are displayed corresponding to the 3D image (S6).

복수의 캐릭터영상 중 선택된 캐릭터영상을 3D영상 내에 배치한다(S8).A character image selected from among a plurality of character images is arranged in a 3D image (S8).

복수의 캐릭터영상 중 적어도 하나는 3D영상에 대응하는 영상톤을 적용한다(S9).At least one of the plurality of character images applies an image tone corresponding to a 3D image (S9).

사용자의 안면을 포함하는 두상을 사용자의 두상영상으로 대체하여 배치한다(S10).The head image including the user's face is replaced with the image of the user's head (S10).

복수의 캐릭터 중 적어도 하나 및 복수의 캐릭터 아이템을 포함하는 캐릭터정보 중 적어도 하나를 수신하다(S11). At least one of a plurality of characters and at least one of character information including a plurality of character items are received (S11).

수신된 캐릭터정보에 기초하여 정지 및 이동되는 캐릭터영상을 캐릭터화한다(S12).Based on the received character information, the character image that is stopped and moved is characterized (S12).

상기의 실시 예 이 외의 변형 가능한 실시 예를 설명한다.Modifiable embodiments other than the above embodiments will be described.

상기의 실제 의뢰영상이 동영상이며 이를 3D 랜더링하여 3D영상으로 맵핑을 하는 경우 또한, 의뢰영상이 실시간 동영상인 경우 많은 사용자의 얼굴이 노출될 수 있는 경우가 발생할 수 있다. 이러한 경우를 대비하여 얼굴을 마스킹할 수 있다. 그러나 가끔은 얼굴을 검출하는데 성공했으나 여러 가지 경우에서 마스킹할 특정 대상의 마스킹이 실패하는 경우도 발생할 수 있으므로 3D영상에서도 얼굴을 마스킹하여야 한다.When the actual requested image is a video, which is 3D rendered and mapped to a 3D image, also, when the requested image is a real-time video, many users' faces may be exposed. In preparation for this case, the face can be masked. However, sometimes the face is successfully detected, but in various cases, the masking of a specific object to be masked may fail, so the face must be masked in the 3D image as well.

캐릭터의 허리, 팔과 다리의 각도에 기초하여 얼굴을 마스킹할 수 있다. 이는 캐릭터의 움직임의 가능성을 예측하여 마스킹을 할 수 있다. 이를 테면 앞으로 허리를 굽히고 있는 경우 이 캐릭터는 상측으로 일어나는 움직임을 예상할 수 있으므로 이를 기초로 하여 마스킹영역의 크기 및 방향을 예측 산출할 수 있다. 또한, 캐릭터의 이동속도에 따라서 마스킹범위를 조절할 수 있다. 캐릭터의 이동속도가 증가할수록 마스킹범위를 증가시켜 사용자 얼굴의 노출을 방지할 수 있다.You can mask the face based on the angles of the character's waist, arms and legs. This can perform masking by predicting the possibility of a character's movement. For example, when the character bends forward, the upward movement of the character can be predicted, and based on this, the size and direction of the masking area can be predicted and calculated. In addition, the masking range can be adjusted according to the movement speed of the character. As the movement speed of the character increases, the exposure of the user's face can be prevented by increasing the masking range.

제어부는 캐릭터가 이동 중 사용자에게 접근하여 질문을 하는 캐릭터가 있는 경우 화면을 질문한 캐릭터와 사용자의 캐릭터를 포함하는 가장 큰 영역으로 확대하여 표시되도록 할 수 있다.If there is a character approaching the user and asking a question while the character is moving, the controller may enlarge and display the screen to the largest area including the character asking the question and the user's character.

제어부는 사용자가 캐릭터 아이템을 한번 터치하는 경우 캐릭터 아이템의 기능에 따라 기능화면이 확대되어 표시되도록 하며, 두번 터치하는 경우 확대된 기능화면이 축소되어 표시되도록 할 수 있다. 제어부는 사용자가 복수의 캐릭터 아이템을 화면 상에서 서로 다른 프레임으로 표시할 수 있는데 복수의 캐릭터 아이템을 중첩되지 않도록 화면에 표시되게 할 수도 있다.When the user touches the character item once, the function screen may be enlarged and displayed according to the function of the character item, and when the user touches the character item twice, the enlarged function screen may be reduced and displayed. The controller may allow the user to display a plurality of character items in different frames on the screen, but may display the plurality of character items on the screen so that they do not overlap.

상기의 3D 랜더링을 이용한 맵생성 시스템(1)으로 인하여, 3D 랜더링을 이용한 3D 맵핑을 하면서 다양한 영상톤을 적용하여 맵핑을 할 수 있으므로 사용자가 원하는 다양한 디자인을 제공할 수 있다.Due to the map generation system 1 using 3D rendering, various designs desired by users can be provided because mapping can be performed by applying various image tones while performing 3D mapping using 3D rendering.

1: 3D 랜더링을 이용한 맵생성 시스템
10: 통신부 20: 사용자 입력부
30: 디스플레이부 40: 카메라
50: 제어부
1: Map generation system using 3D rendering
10: communication unit 20: user input unit
30: display unit 40: camera
50: control unit

Claims (5)

3D 랜더링을 이용한 맵생성 시스템에 있어서,
외부로부터 복수의 영상을 수신하는 통신부;
수신된 복수의 영상의 색상, 분위기 및 디자인을 포함하는 영상톤을 분석하고, 상기 복수의 영상에 대응하여 분석된 상기 영상톤을 저장하며, 3D랜더링을 이용하여 맵을 생성하기 위한 의뢰영상을 수신하면 저장된 복수의 상기 영상톤 중 선택된 영상톤에 기초하여 상기 의뢰영상에 대응하는 3D영상을 생성하는 제어부; 및
상기 3D영상을 표시하는 디스플레이부;를 포함하며,
상기 제어부는,
상기 3D영상에 대응하여 복수의 캐릭터영상을 상기 디스플레이부에 표시하며, 상기 복수의 캐릭터영상 중 선택된 캐릭터영상을 상기 3D영상 내에 배치하되, 상기 복수의 캐릭터영상 중 적어도 하나는 상기 3D영상에 대응하는 영상톤을 갖는 3D영상이며,
상기 제어부는,
사용자의 안면을 포함하는 두상영상을 수신하며 상기 선택된 캐릭터영상의 두상을 상기 사용자의 두상영상으로 대체하여, 가상화상회의, 가상발표, 가상세미나를 포함하여 본인의 인증이 필요한 경우에 상기 두상영상으로 3D영상 내에서 인증을 지원하는 것을 특징으로 하는 3D 랜더링을 이용한 맵생성 시스템.
In the map generation system using 3D rendering,
Communication unit for receiving a plurality of images from the outside;
Analyzing image tones including color, atmosphere, and design of a plurality of received images, storing the analyzed image tones corresponding to the plurality of images, and receiving a request image for generating a map using 3D rendering a controller for generating a 3D image corresponding to the requested image based on a selected image tone among a plurality of stored image tones; and
Including; a display unit for displaying the 3D image,
The control unit,
A plurality of character images corresponding to the 3D image are displayed on the display unit, and a character image selected from among the plurality of character images is placed in the 3D image, at least one of the plurality of character images corresponding to the 3D image. It is a 3D image having an image tone,
The control unit,
A head image including the user's face is received and the head image of the selected character image is replaced with the user's head image, and the head image is used when authentication is required, including virtual conferences, virtual presentations, and virtual seminars. A map generation system using 3D rendering, characterized in that it supports authentication within the 3D image.
삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 제어부는,
상기 3D영상에 대응한 복수의 캐릭터 및 상기 복수의 캐릭터를 꾸밀 수 있는 복수의 캐릭터 아이템을 제공하는 캐릭터숍을 포함하는 캐릭터 정보를 저장하며, 상기 복수의 캐릭터 중 적어도 하나 및 상기 복수의 캐릭터정보 중 적어도 하나를 수신하면, 수신된 상기 캐릭터 정보에 기초하여 정지 및 이동되는 캐릭터영상을 캐릭터화 하는 것을 특징으로 하는 3D 랜더링을 이용한 맵생성 시스템.
According to claim 1,
The control unit,
Character information including a plurality of characters corresponding to the 3D image and a character shop providing a plurality of character items capable of decorating the plurality of characters is stored, and at least one of the plurality of characters and among the plurality of character information When at least one is received, a map generation system using 3D rendering characterized in that characterizing a character image that is stopped and moved based on the received character information.
KR1020210182303A 2021-12-20 2021-12-20 Map Generation System using 3D rendering KR102479374B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210182303A KR102479374B1 (en) 2021-12-20 2021-12-20 Map Generation System using 3D rendering

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210182303A KR102479374B1 (en) 2021-12-20 2021-12-20 Map Generation System using 3D rendering

Publications (1)

Publication Number Publication Date
KR102479374B1 true KR102479374B1 (en) 2022-12-19

Family

ID=84535644

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210182303A KR102479374B1 (en) 2021-12-20 2021-12-20 Map Generation System using 3D rendering

Country Status (1)

Country Link
KR (1) KR102479374B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110112496A (en) * 2010-04-07 2011-10-13 (주) 그라비티 Methode and server for chaing items
KR20170067673A (en) * 2015-12-08 2017-06-16 스타십벤딩머신 주식회사 Method and apparatus for generating animation
KR20180074124A (en) * 2016-12-23 2018-07-03 주식회사 심보다 Method of controlling electronic device with face recognition and electronic device using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110112496A (en) * 2010-04-07 2011-10-13 (주) 그라비티 Methode and server for chaing items
KR20170067673A (en) * 2015-12-08 2017-06-16 스타십벤딩머신 주식회사 Method and apparatus for generating animation
KR20180074124A (en) * 2016-12-23 2018-07-03 주식회사 심보다 Method of controlling electronic device with face recognition and electronic device using the same

Similar Documents

Publication Publication Date Title
US11948260B1 (en) Streaming mixed-reality environments between multiple devices
US20180173404A1 (en) Providing a user experience with virtual reality content and user-selected, real world objects
KR101692335B1 (en) System for augmented reality image display and method for augmented reality image display
RU2621644C2 (en) World of mass simultaneous remote digital presence
US10963140B2 (en) Augmented reality experience creation via tapping virtual surfaces in augmented reality
US20120192088A1 (en) Method and system for physical mapping in a virtual world
CN108389249B (en) Multi-compatibility VR/AR space classroom and construction method thereof
KR20090087332A (en) Tabletop-mobile augmented reality systems for individualization and co-working and interacting methods using augmented reality
CN108762482A (en) Data interactive method and system between a kind of large screen and augmented reality glasses
CN108959668A (en) The Home Fashion & Design Shanghai method and apparatus of intelligence
Montero et al. Designing and implementing interactive and realistic augmented reality experiences
JP6683864B1 (en) Content control system, content control method, and content control program
CN111862711A (en) Entertainment and leisure learning device based on 5G internet of things virtual reality
JP2004227332A (en) Information display method
Sénécal et al. Modelling life through time: cultural heritage case studies
Krueger An easy entry artificial reality
KR102479374B1 (en) Map Generation System using 3D rendering
JP3341734B2 (en) Video display device
Chung et al. Development of a head-mounted mixed reality museum navigation system
Gaitatzes et al. Virtual reality systems and applications: the ancient olympic games
KR20180098936A (en) HMD Working VR(virtual reality) Contents experience system based on Position Sensors
CN113426110A (en) Virtual character interaction method and device, computer equipment and storage medium
KR20110107707A (en) Online learning apparatus for augmented reality and method thereof
JP2021009351A (en) Content control system, content control method, and content control program
CN112348966A (en) Scene display system of virtual exhibition hall

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant