KR102561202B1 - Layered avatar visualization system and method in digital twin 3D space - Google Patents

Layered avatar visualization system and method in digital twin 3D space Download PDF

Info

Publication number
KR102561202B1
KR102561202B1 KR1020220091060A KR20220091060A KR102561202B1 KR 102561202 B1 KR102561202 B1 KR 102561202B1 KR 1020220091060 A KR1020220091060 A KR 1020220091060A KR 20220091060 A KR20220091060 A KR 20220091060A KR 102561202 B1 KR102561202 B1 KR 102561202B1
Authority
KR
South Korea
Prior art keywords
avatar
space
visualization
basic information
digital twin
Prior art date
Application number
KR1020220091060A
Other languages
Korean (ko)
Inventor
박상규
Original Assignee
박상규
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박상규 filed Critical 박상규
Priority to KR1020220091060A priority Critical patent/KR102561202B1/en
Application granted granted Critical
Publication of KR102561202B1 publication Critical patent/KR102561202B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)

Abstract

디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템이 제공된다. 본 발명의 실시예에 따른 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템은, 디지털 트윈 3D 공간에서 사용자의 아바타를 시각화 하기 위해 상기 사용자 아바타 및 상기 디지털 트윈 3D 공간에 대한 기본 정보를 획득하는 기본 정보 획득부; 상기 기본 정보를 이용하여 상기 아바타의 현재 상태를 확인하고 기 설정된 기준에 따라 상기 아바타의 상태 분류를 수행하는 아바타 상태 분류부; 및 상기 상태 분류 결과를 이용하여 상기 아바타의 시각화를 상기 아바타의 레이어 처리 기법을 통해 수행하는 아바타 시각화 처리부;를 포함하고 상기 기본 정보는 상기 디지털 트윈 3D 공간에 대한 기본 정보인 공간 기본 정보 및 상기 사용자 아바타에 대한 기본 정보인 아바타 기본 정보를 포함한다. A layer-by-layer avatar visualization system on the digital twin 3D space is provided. An avatar visualization system for each layer on a digital twin 3D space according to an embodiment of the present invention obtains basic information for obtaining basic information about a user avatar and the digital twin 3D space in order to visualize the user's avatar in the digital twin 3D space wealth; an avatar state classification unit that checks the current state of the avatar using the basic information and classifies the state of the avatar according to a preset standard; and an avatar visualization processing unit that performs visualization of the avatar through a layer processing technique of the avatar using a result of the state classification, wherein the basic information includes space basic information that is basic information about the digital twin 3D space and the user It includes avatar basic information, which is basic information about the avatar.

Description

디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템 및 방법{Layered avatar visualization system and method in digital twin 3D space}Layered avatar visualization system and method in digital twin 3D space}

본 발명은 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템 및 방법에 관한 것으로, 특히, 디지털 트윈 3D 공간 상에서 아바타의 위치, 동작 및 이벤트 종류에 따라 레이어를 이용하여 아바타의 시각화를 수행할 수 있는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for visualizing an avatar for each layer in a digital twin 3D space, and in particular, a digital twin capable of visualizing an avatar using layers according to the avatar's position, motion, and event type in the digital twin 3D space. It relates to an avatar visualization system and method for each layer in 3D space.

디지털 트윈은 현실 세계의 실물 객체를 가상 세계의 쌍둥이 가상 객체로 만들고, 실물 객체의 동작과 행동을 쌍둥이 가상 객체의 수행 역할 모델로 만들어 현실 세계를 가상 세계에서 모사 및 모의 할 수 있도록 하는 기술이다. 이를 위해 3D 공간 상에는 아바타가 시각화되어 나타난다. 해당 공간은 다양한 이벤트(공연, 기술 훈련, 가상 훈련, 운동회 등)가 수행될 수 있으며, 이러한 다양한 이벤트는 수많은 사람들이 자신의 아바타를 이용하여 참가하도록 형성될 수 있다.The digital twin is a technology that makes a real object in the real world into a twin virtual object in the virtual world, and the real world can be simulated and simulated in the virtual world by making the action and behavior of the real object a performance role model for the twin virtual object. To this end, the avatar is visualized and displayed on the 3D space. In the corresponding space, various events (performance, technical training, virtual training, sports day, etc.) can be performed, and these various events can be formed so that many people can participate using their avatars.

가상 현실에서는 설정 조건에 따라 아바타의 시점이 달라지지만, 가상 현실에서의 몰입감을 증가시키기 위해서는 일반적으로 사용자들은 1인칭 시점을 통해 가상 현실을 이용한다. 여기서, 가상 현실은 증강 현실(AR), 혼합 현실(MR) 및 메타버스 현실 등을 포함하는 다양한 가상 세계를 의미한다. 이 경우, 다른 아바타들로 인해 현실 세계와 유사하게 시야적 제한이 발생할 수 있으며, 이로 인해 중요한 장면을 놓치거나 이벤트에 몰입할 수 없다는 문제점이 존재한다.In virtual reality, the viewpoint of the avatar varies according to setting conditions, but in order to increase the sense of immersion in virtual reality, users generally use virtual reality through a first-person viewpoint. Here, virtual reality refers to various virtual worlds including augmented reality (AR), mixed reality (MR), and metaverse reality. In this case, similar to the real world, restrictions on the field of view may occur due to other avatars, and as a result, there is a problem in that an important scene may be missed or immersion in an event may not be possible.

한국등록특허 제10-2420379호Korean Patent Registration No. 10-2420379

상기와 같은 종래 기술의 문제점을 해결하기 위해, 본 발명의 일 실시예는 아바타의 시각화를 레이어 처리 기법을 이용하여 수행하고, 아바타의 가상 공간 상의 위치, 동작 및 이벤트의 종류에 따라 아바타의 시각화를 수행할 수 있는 디지털 트윈 3D 공간 상의 레이어 별 아바타 시각화 시스템 및 방법을 제공하고자 한다.In order to solve the problems of the prior art as described above, an embodiment of the present invention performs avatar visualization using a layer processing technique, and visualizes the avatar according to the avatar's location, motion, and event type in the virtual space. It is intended to provide an avatar visualization system and method for each layer on the digital twin 3D space that can be performed.

위와 같은 과제를 해결하기 위한 본 발명의 일 측면에 따르면, 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템이 제공된다. 상기 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템은, 디지털 트윈 3D 공간에서 사용자의 아바타를 시각화 하기 위해 상기 사용자 아바타 및 상기 디지털 트윈 3D 공간에 대한 기본 정보를 획득하는 기본 정보 획득부; 상기 기본 정보를 이용하여 상기 아바타의 현재 상태를 확인하고 기 설정된 기준에 따라 상기 아바타의 상태 분류를 수행하는 아바타 상태 분류부; 및 상기 상태 분류 결과를 이용하여 상기 아바타의 시각화를 상기 아바타의 레이어 처리 기법을 통해 수행하는 아바타 시각화 처리부;를 포함하고 상기 기본 정보는 상기 디지털 트윈 3D 공간에 대한 기본 정보인 공간 기본 정보 및 상기 사용자 아바타에 대한 기본 정보인 아바타 기본 정보를 포함한다.According to one aspect of the present invention for solving the above problems, an avatar visualization system for each layer on a digital twin 3D space is provided. The avatar visualization system for each layer in the digital twin 3D space includes: a basic information acquisition unit that obtains basic information about the user avatar and the digital twin 3D space in order to visualize the user's avatar in the digital twin 3D space; an avatar state classification unit that checks the current state of the avatar using the basic information and classifies the state of the avatar according to a preset standard; and an avatar visualization processing unit that performs visualization of the avatar through a layer processing technique of the avatar using a result of the state classification, wherein the basic information includes space basic information that is basic information about the digital twin 3D space and the user It includes avatar basic information, which is basic information about the avatar.

상기 기본 정보 획득부는, 상기 디지털 트윈 3D 공간의 종류 및 상기 디지털 트윈 3D 공간에서 수행되는 이벤트 종류를 포함하는 상기 공간 기본 정보를 획득하는 공간 기본 정보 획득 모듈; 및 상기 사용자 아바타에 대한 행동 종류 및 시각화 종류를 포함하는 상기 아바타 기본 정보를 획득하는 아바타 기본 정보 획득 모듈;을 포함할 수 있다.The basic information acquisition unit may include: a space basic information acquisition module acquiring the space basic information including the type of the digital twin 3D space and the type of event performed in the digital twin 3D space; and an avatar basic information acquisition module that obtains basic avatar information including a behavior type and a visualization type of the user avatar.

상기 디지털 트윈 3D 공간의 종류는 기 설정된 공간 구분 기준에 따라 분류되며, 야외, 넓은 실내, 개별 실내 공간 및 좁은 실내 공간 중 적어도 하나로 표현되고, 상기 이벤트 종류는 기 설정된 이벤트 종류 구분 기준에 따라 분류되며, 대외 활동, 주도 활동 및 실습 활동 중 적어도 하나로 표현될 수 있다.The type of the digital twin 3D space is classified according to a preset space classification standard, and is expressed as at least one of outdoor, wide indoor, individual indoor space, and narrow indoor space, and the event type is classified according to a preset event type classification standard, , can be expressed as at least one of external activities, initiative activities, and practice activities.

상기 행동 종류는 상기 아바타의 행동(동작)에 따라 분류되며, 정지, 걷기, 뛰기, 탑승 이동 및 제자리 행동 중 적어도 하나를 포함하며, 상기 시각화 종류는 상기 디지털 트윈 3D 공간에서의 상기 사용자의 시점에 따라 분류되며 1인칭 또는 3인칭 중 어느 하나일 수 있다.The action type is classified according to the action (action) of the avatar, and includes at least one of stop, walking, running, boarding movement, and standing action, and the visualization type is the user's viewpoint in the digital twin 3D space. It can be classified according to the first person or the third person.

상기 아바타 상태 분류부는. 상기 공간 기본 정보를 이용하여 상기 현재 상태 중 공간 상태를 분류하는 공간 상태 분류 모듈; 및 상기 아바타 기본 정보를 이용하여 상기 현재 상태 중 동작 상태를 분류하는 동작 상태 분류 모듈;을 포함할 수 있다.The avatar state classification unit. a spatial state classification module for classifying a spatial state among the current states using the spatial basic information; and an action state classification module for classifying an action state among the current states using the avatar basic information.

상기 공간 상태 분류 모듈은, 설정된 우선순위에 따라 상기 공간 기본 정보에 포함된 3D 공간의 종류 또는 이벤트 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정할 수 있다.The spatial state classification module may set one of the 3D space type or the event type included in the spatial basic information as a priority classification criterion and set the other one as a sub-classification criterion according to the set priority.

상기 동작 상태 분류 모듈은, 설정된 우선순위에 따라 상기 아바타 기본 정보에 포함된 행동 종류 또는 시각화 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정할 수 있다.The action state classification module may set one of the action type or visualization type included in the avatar basic information as a priority classification criterion and set the other one as a lower classification criterion according to the set priority.

상기 아바타 시각화 처리부는, 상기 상태 분류 결과에 포함된 공간 상태 분류 결과 및 동작 상태 분류 결과를 각각 획득하는 분류 결과 획득 모듈; 상기 상태 분류 결과에 포함된 우선 순위를 확인하고, 상기 우선 순위에 따라 상기 아바타 시각화 조건을 설정하는 아바타 시각화 조건 설정 모듈; 및 상기 아바타 시각화 조건을 이용하여 상기 아바타에 대해 상기 레이어 처리 기법을 수행하고, 상기 레이어 처리 기법을 통해 상기 아바타의 시각화를 수행하는 아바타 시각화 수행 모듈;을 포함하며, 상기 레이어 처리 기법은, 상기 아바타를 기 설정된 부위 별로 독립 레이어에 시각화를 수행하고, 복수개의 상기 독립 레이어를 병합하여 하나의 상기 아바타를 생성할 수 있다.The avatar visualization processing unit may include: a classification result obtaining module for obtaining a spatial state classification result and an action state classification result included in the state classification result; an avatar visualization condition setting module that checks priorities included in the status classification result and sets the avatar visualization conditions according to the priorities; and an avatar visualization performing module that performs the layer processing technique on the avatar using the avatar visualization condition and performs visualization of the avatar through the layer processing technique, wherein the layer processing technique comprises: It is possible to perform visualization on an independent layer for each predetermined region, and generate one avatar by merging a plurality of independent layers.

상기 아바타 시각화 조건은 공간 상태 별 시각화 조건, 이벤트 종류 별 시각화 조건 및 행동 종류 별 시각화 조건 중 적어도 하나를 포함할 수 있다.The avatar visualization condition may include at least one of a visualization condition for each space state, a visualization condition for each event type, and a visualization condition for each action type.

상기 공간 상태 별 시각화 조건은, 야외 및 넓은 실내인 경우 전신 표현을 수행하며, 개별 실내 공간 및 좁은 실내 공간인 경우 기 설정된 부분만 표현하고, 상기 이벤트 종류별 시각화 조건은, 대외 활동 및 주도 활동 인 경우 전신 표현을 수행하며, 실습 활동인 경우 기 설정된 부분만 표현하며, 상기 행동 종류 별 시각화 조건은, 정지, 걷기 및 탑승 이동의 경우 전신 표현을 수행하며, 뛰기 및 제자리 행동인 경우 기 설정된 부분만 표현할 수 있다.The visualization condition for each space state is to express the whole body in the case of outdoor and large indoor spaces, and to express only a predetermined part in the case of an individual indoor space and a narrow indoor space, and the visualization condition for each event type is in the case of outdoor activities and initiative activities. Full body expression is performed, and in the case of practice activities, only a predetermined part is expressed. For the visualization conditions for each action type, the whole body expression is performed in the case of stopping, walking, and riding, and only a predetermined part is expressed in the case of running and standing actions. can

상기 아바타 시각화 수행 모듈은, 상기 아바타 시각화 조건을 획득하고, 상기 아바타 시각화 조건에서 표현하고자 하는 부위를 제외한 나머지 상기 독립 레이어를 제거하여 상기 아바타 시각화를 수행할 수 있다.The avatar visualization execution module may perform the avatar visualization by obtaining the avatar visualization condition and removing the remaining independent layers except for a region to be expressed in the avatar visualization condition.

본 발명의 일 측면에 따르면, 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법이 제공된다. 상기 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법은 기본 정보 획득부를 통해 디지털 트윈 3D 공간에서 사용자의 아바타를 시각화 하기 위해 상기 사용자 아바타 및 상기 디지털 트윈 3D 공간에 대한 기본 정보를 획득하는 단계; 아바타 상태 분류부를 통해 상기 기본 정보를 이용하여 상기 아바타의 현재 상태를 확인하고 기 설정된 기준에 따라 상기 아바타의 상태 분류를 수행하는 단계; 및 아바타 시각화 처리부를 통해 상기 상태 분류 결과를 이용하여 상기 아바타의 시각화를 상기 아바타의 레이어 처리 기법을 통해 수행하는 단계;를 포함하고 상기 기본 정보는 상기 디지털 트윈 3D 공간에 대한 기본 정보인 공간 기본 정보 및 상기 사용자 아바타에 대한 기본 정보인 아바타 기본 정보를 포함한다.According to one aspect of the present invention, a method for visualizing an avatar for each layer in a digital twin 3D space is provided. The avatar visualization method for each layer in the digital twin 3D space includes obtaining basic information about the user avatar and the digital twin 3D space to visualize the user's avatar in the digital twin 3D space through a basic information acquisition unit; checking a current state of the avatar using the basic information through an avatar state classification unit and classifying the state of the avatar according to a predetermined criterion; and performing visualization of the avatar through a layer processing technique of the avatar using the state classification result through an avatar visualization processor, wherein the basic information includes space basic information that is basic information about the digital twin 3D space. and avatar basic information that is basic information about the user avatar.

상기 사용자 아바타 및 상기 디지털 트윈 3D 공간에 대한 기본 정보를 획득하는 단계는, 상기 디지털 트윈 3D 공간의 종류 및 상기 디지털 트윈 3D 공간에서 수행되는 이벤트 종류를 포함하는 상기 공간 기본 정보를 획득하는 단계; 및 상기 사용자 아바타에 대한 행동 종류 및 시각화 종류를 포함하는 상기 아바타 기본 정보를 획득하는 단계;를 포함할 수 있다.The obtaining of basic information on the user avatar and the digital twin 3D space may include: acquiring the space basic information including a type of the digital twin 3D space and a type of event performed in the digital twin 3D space; and obtaining basic avatar information including a behavior type and a visualization type of the user avatar.

상기 디지털 트윈 3D 공간의 종류는 기 설정된 공간 구분 기준에 따라 분류되며, 야외, 넓은 실내, 개별 실내 공간 및 좁은 실내 공간 중 적어도 하나로 표현되고, 상기 이벤트 종류는 기 설정된 이벤트 종류 구분 기준에 따라 분류되며, 대외 활동, 주도 활동 및 실습 활동 중 적어도 하나로 표현될 수 있다.The type of the digital twin 3D space is classified according to a preset space classification standard, and is expressed as at least one of outdoor, wide indoor, individual indoor space, and narrow indoor space, and the event type is classified according to a preset event type classification standard, , can be expressed as at least one of external activities, initiative activities, and practice activities.

상기 행동 종류는 상기 아바타의 행동(동작)에 따라 분류되며, 정지, 걷기, 뛰기, 탑승 이동 및 제자리 행동 중 적어도 하나를 포함하며, 상기 시각화 종류는 상기 디지털 트윈 3D 공간에서의 상기 사용자의 시점에 따라 분류되며 1인칭 또는 3인칭 중 어느 하나일 수 있다.The action type is classified according to the action (action) of the avatar, and includes at least one of stop, walking, running, boarding movement, and standing action, and the visualization type is the user's viewpoint in the digital twin 3D space. It can be classified according to the first person or the third person.

상기 아바타의 상태 분류를 수행하는 단계는. 상기 공간 기본 정보를 이용하여 상기 현재 상태 중 공간 상태를 분류하는 단계; 및 상기 아바타 기본 정보를 이용하여 상기 현재 상태 중 동작 상태를 분류하는 단계;를 포함할 수 있다.The step of performing state classification of the avatar. classifying a spatial state among the current states using the spatial basic information; and classifying an operating state among the current states using the avatar basic information.

상기 공간 상태를 분류하는 단계는, 설정된 우선순위에 따라 상기 공간 기본 정보에 포함된 3D 공간의 종류 또는 이벤트 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정할 수 있다.In the classifying of the spatial state, one of the 3D space type or the event type included in the space basic information may be set as a priority classification criterion and the other one may be set as a sub-classification criterion according to the set priority.

상기 동작 상태를 분류하는 단계는, 설정된 우선순위에 따라 상기 아바타 기본 정보에 포함된 행동 종류 또는 시각화 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정할 수 있다.In the classifying of the motion state, one of the behavior type or the visualization type included in the avatar basic information may be set as a priority classification criterion and the other one may be set as a sub-classification criterion according to the set priority.

상기 아바타의 시각화를 상기 아바타의 레이어 처리 기법을 통해 수행하는 단계는, 상기 상태 분류 결과에 포함된 공간 상태 분류 결과 및 동작 상태 분류 결과를 각각 획득하는 단계; 상기 상태 분류 결과에 포함된 우선 순위를 확인하고, 상기 우선 순위에 따라 상기 아바타 시각화 조건을 설정하는 단계; 및 상기 아바타 시각화 조건을 이용하여 상기 아바타에 대해 상기 레이어 처리 기법을 수행하고, 상기 레이어 처리 기법을 통해 상기 아바타의 시각화를 수행하는 단계;를 포함하며, 상기 레이어 처리 기법은, 상기 아바타를 기 설정된 부위 별로 독립 레이어에 시각화를 수행하고, 복수개의 상기 독립 레이어를 병합하여 하나의 상기 아바타를 생성할 수 있다.The step of visualizing the avatar through the layer processing technique of the avatar may include: obtaining a spatial state classification result and an action state classification result included in the state classification result, respectively; checking priorities included in the status classification result, and setting the avatar visualization conditions according to the priorities; and performing the layer processing technique on the avatar using the avatar visualization condition, and performing visualization of the avatar through the layer processing technique, wherein the layer processing technique comprises setting the avatar to a preset value. Visualization may be performed on an independent layer for each region, and a plurality of independent layers may be merged to generate one avatar.

상기 아바타 시각화 조건은 공간 상태 별 시각화 조건, 이벤트 종류 별 시각화 조건 및 행동 종류 별 시각화 조건 중 적어도 하나를 포함할 수 있다.The avatar visualization condition may include at least one of a visualization condition for each space state, a visualization condition for each event type, and a visualization condition for each action type.

상기 공간 상태 별 시각화 조건은, 야외 및 넓은 실내인 경우 전신 표현을 수행하며, 개별 실내 공간 및 좁은 실내 공간인 경우 기 설정된 부분만 표현하고, 상기 이벤트 종류별 시각화 조건은, 대외 활동 및 주도 활동 인 경우 전신 표현을 수행하며, 실습 활동인 경우 기 설정된 부분만 표현하며, 상기 행동 종류 별 시각화 조건은, 정지, 걷기 및 탑승 이동의 경우 전신 표현을 수행하며, 뛰기 및 제자리 행동인 경우 기 설정된 부분만 표현할 수 있다.The visualization condition for each space state is to express the whole body in the case of outdoor and large indoor spaces, and to express only a predetermined part in the case of an individual indoor space and a narrow indoor space, and the visualization condition for each event type is in the case of outdoor activities and initiative activities. Full body expression is performed, and in the case of practice activities, only a predetermined part is expressed. For the visualization conditions for each action type, the whole body expression is performed in the case of stopping, walking, and riding, and only a predetermined part is expressed in the case of running and standing actions. can

상기 레이어 처리 기법을 통해 상기 아바타의 시각화를 수행하는 단계는, 상기 아바타 시각화 조건을 획득하고, 상기 아바타 시각화 조건에서 표현하고자 하는 부위를 제외한 나머지 상기 독립 레이어를 제거하여 상기 아바타 시각화를 수행할 수 있다.In the step of performing the visualization of the avatar through the layer processing technique, the avatar visualization condition may be obtained, and the avatar visualization may be performed by removing the remaining independent layers excluding a region to be expressed in the avatar visualization condition. .

본 발명의 일 실시예에 따른 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템 및 방법은 사용자의 아바타가 디지털 공간에서 공간 종류, 이벤트 종류 및 동작 종류에 따라 시각화 되는 정도의 차이를 통해 이벤트 몰입도 등을 증가시킬 수 있는 효과가 있다. A system and method for visualizing avatars for each layer in a digital twin 3D space according to an embodiment of the present invention is a system and method for visualizing events, etc. There is an effect that can be increased.

도 1은 본 발명의 실시예에 따른 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템을 나타낸 블록도이다.
도 2는 도 1의 기본 정보 획득부를 나타낸 블록도이다.
도 3은 도 1의 아바타 상태 분류부를 나타낸 블록도이다.
도 4는 도 1의 아바타 시각화 처리부를 나타낸 블록도이다.
도 5는 본 발명의 실시예에 따른 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템을 나타낸 순서도이다.
도 6은 도 5의 단계 S11을 나타낸 순서도이다.
도 7은 도 5의 단계 S13을 나타낸 순서도이다.
도 8은 도 5의 단계 S15를 나타낸 순서도이다.
도 9는 본 발명의 디지털 트윈 3D 공간에서 특정 사용자의 아바타에 의해 시야가 제한되는 예시를 나타낸 도이다.
도 10은 본 발명의 일 실시예에 따라 아바타가 특정 공간에 시각화 되는 예시를 나타낸 도이다.
1 is a block diagram showing an avatar visualization system for each layer on a digital twin 3D space according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a basic information obtaining unit of FIG. 1 .
FIG. 3 is a block diagram illustrating an avatar state classification unit of FIG. 1 .
4 is a block diagram illustrating an avatar visualization processing unit of FIG. 1 .
5 is a flowchart illustrating an avatar visualization system for each layer on a digital twin 3D space according to an embodiment of the present invention.
6 is a flowchart illustrating step S11 of FIG. 5 .
7 is a flowchart illustrating step S13 of FIG. 5 .
8 is a flowchart illustrating step S15 of FIG. 5 .
9 is a diagram showing an example in which the field of view is limited by the avatar of a specific user in the digital twin 3D space of the present invention.
10 is a diagram illustrating an example in which an avatar is visualized in a specific space according to an embodiment of the present invention.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. This invention may be embodied in many different forms and is not limited to the embodiments set forth herein. In order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and the same reference numerals are assigned to the same or similar components throughout the specification.

도 1은 본 발명의 실시예에 따른 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템을 나타낸 블록도이고, 도 2는 도 1의 기본 정보 획득부를 나타낸 블록도이며, 도 3은 도 1의 아바타 상태 분류부를 나타낸 블록도이고, 도 4는 도 1의 아바타 시각화 처리부를 나타낸 블록도이다. 이하에서는 도 1 내지 도 4를 이용하여 본 발명의 일 실시예에 따른 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템(이하, 설명의 편의상 아바타 시각화 시스템이라 함)에 대하여 상세히 설명하도록 한다.1 is a block diagram showing an avatar visualization system for each layer on a digital twin 3D space according to an embodiment of the present invention, FIG. 2 is a block diagram showing a basic information acquisition unit of FIG. 1, and FIG. 3 is a classification of the avatar state of FIG. 4 is a block diagram showing the avatar visualization processing unit of FIG. 1 . Hereinafter, an avatar visualization system for each layer in a digital twin 3D space according to an embodiment of the present invention (hereinafter referred to as an avatar visualization system for convenience of explanation) will be described in detail using FIGS. 1 to 4.

본 발명의 일 실시예에 따른 아바타 시각화 시스템은 사용자의 아바타를 가상 현실에 시각화하여, 가상 현실에서 발생하는 이벤트를 아바타가 수행하거나 특정 공간에서 특정 동작을 수행하도록 할 수 있는 시스템이다. 특히, 본 발명의 실시예에서는 후술되는 레이어 처리 기법을 이용하여 사용자의 아바타를 특정 조건에 맞게 특정 레이어만 시각화 함으로써 몰입감을 유지하고 다른 아바타들의 시야 제한을 방지할 수 있는 효과를 갖도록 형성된다.An avatar visualization system according to an embodiment of the present invention is a system capable of visualizing a user's avatar in virtual reality and allowing the avatar to perform an event occurring in virtual reality or to perform a specific motion in a specific space. In particular, in the embodiment of the present invention, only a specific layer of the user's avatar is visualized according to specific conditions using a layer processing technique described later, thereby maintaining a sense of immersion and preventing other avatars from being limited in their field of view.

이를 위해 본 발명의 일 실시예에 따른 아바타 시각화 시스템(1)은 도 1에 도시된 바와 같이 기본 정보 획득부(11), 아바타 상태 분류부(13) 및 아바타 시각화 처리부(15)를 포함하도록 형성된다.To this end, the avatar visualization system 1 according to an embodiment of the present invention is formed to include a basic information acquisition unit 11, an avatar state classification unit 13, and an avatar visualization processing unit 15 as shown in FIG. do.

기본 정보 획득부(11)는 디지털 트윈 3D 공간에서 사용자의 아바타를 시각화 하기 위해 사용자 아바타 및 디지털 트윈 3D 공간에 대한 기본 정보를 획득하도록 형성된다. 여기서, 기본 정보는 디지털 트윈 3D 공간에 대한 기본 정보인 공간 기본 정보와 사용자 아바타에 대한 기본 정보인 아바타 기본 정보를 포함할 수 있다. 기본 정보 획득부(11)는 도 2에 도시된 바와 같이 공간 기본 정보 획득 모듈(111) 및 아바타 기본 정보 획득 모듈(113)을 포함하도록 형성될 수 있다.The basic information acquisition unit 11 is configured to acquire basic information about the user avatar and the digital twin 3D space in order to visualize the user's avatar in the digital twin 3D space. Here, the basic information may include space basic information, which is basic information about the digital twin 3D space, and avatar basic information, which is basic information about the user's avatar. As shown in FIG. 2 , the basic information acquisition unit 11 may include a space basic information acquisition module 111 and an avatar basic information acquisition module 113 .

공간 기본 정보 획득 모듈(111)은 디지털 트윈 3D 공간의 종류 및 디지털 트윈 3D 공간에서 수행되는 이벤트 종류를 포함하는 공간 기본 정보를 획득하도록 형성된다. The space basic information acquisition module 111 is configured to acquire space basic information including the type of digital twin 3D space and the type of event performed in the digital twin 3D space.

여기서, 디지털 트윈 3D 공간의 종류는 기 설정된 공간 구분 기준에 따라 분류될 수 있으며, 일 예시로는 야외, 넓은 실내, 개별 실내 공간 및 좁은 실내 공간 중 어느 하나로 표현될 수 있다.Here, the type of digital twin 3D space may be classified according to a predetermined space classification criterion, and as an example, it may be expressed as one of outdoor, wide indoor, individual indoor space, and narrow indoor space.

본 발명의 실시예에서 야외는 공원, 학교, 거리, 공항, 공장의 외부 등일 수 있으며, 넓은 실내는 공연장, 전시장, 넓은 공장 내부, 선박의 기관실 또는 조타실 등일 수 있다. 또, 개별 실내 공간은 강의실, 회의장, 제어실 등일 수 있으며, 좁은 실내 공간은 비행기 조종실, 차량 내부 공간, 장갑차 내부, 좁은 창고, 첨성대 내부 등일 수 있다.In an embodiment of the present invention, the outdoor may be a park, school, street, airport, outside of a factory, etc., and the spacious interior may be a performance hall, exhibition hall, a spacious factory interior, a ship's engine room, or a wheelhouse. In addition, the individual indoor space may be a lecture room, conference hall, control room, etc., and the narrow indoor space may be an airplane cockpit, a vehicle interior space, an armored vehicle interior, a narrow warehouse, or the inside of Cheomseongdae.

기 설정된 공간 구분 기준은 관리자의 설정에 따라 변경될 수 있다. 일 예로 공간 분류는 해당 공간의 물리적인 넓이를 기준으로 분류될 수 도 있으며, 해당 공간에 입장 가능한 최대 인원(아바타 수)를 기준으로 분류될 수 도 있다.The preset space division criterion may be changed according to a manager's setting. For example, space classification may be based on the physical size of the space, or based on the maximum number of people (the number of avatars) that can enter the space.

또, 공간 기본 정보 획득 모듈(111)에서 획득하는 이벤트 종류는 기 설정된 이벤트 종류 구분 기준에 따라 분류되며, 일 예시로는 대외 활동, 주도 활동 및 실습 활동 중 어느 하나로 표현될 수 있다.In addition, the event types acquired by the space basic information acquisition module 111 are classified according to a preset event type classification criterion, and may be expressed as one of external activities, leading activities, and practical activities, as an example.

본 발명의 실시예에서 대외 활동은 전시회, 경기참관, 행사참여, 쇼핑 등일 수 있으며, 주도 활동은 운동, 공연발표, 강의 등일 수 있다. 또, 실습 활동은 본인의 행동이 구체적으로 표현되어야 하는 활동으로 실습 또는 훈련 등일 수 있다.In an embodiment of the present invention, external activities may be exhibitions, game observation, event participation, shopping, and the like, and leading activities may be sports, performance presentations, lectures, and the like. In addition, the practice activity is an activity in which a person's behavior is specifically expressed, and may be practice or training.

기 설정된 이벤트 종류는 관리자의 설정에 따라 변경될 수 있다. 일 예로 이벤트 분류는 해당 이벤트의 진행에 대한 해당 사용자의 관여도에 따라 분류될 수 있다.The preset event type may be changed according to a manager's setting. For example, event classification may be classified according to the user's involvement in the progress of the corresponding event.

아바타 기본 정보 획득 모듈(113)은 사용자 아바타에 대한 행동 종류 및 시각화 종류를 포함하는 아바타 기본 정보를 획득하도록 형성된다. The avatar basic information acquisition module 113 is configured to acquire avatar basic information including the behavior type and visualization type of the user avatar.

여기서, 행동 종류는 아바타의 행동(동작)에 따라 분류될 수 있으며, 일 예시로는 정지, 걷기, 뛰기, 탑승 이동 및 제자리 행동 중 적어도 하나를 포함할 수 있다. 또, 시각화 종류는 디지털 트윈 3D 공간에서의 사용자의 시점 설정에 따라 분류되며, 1인칭 또는 3인칭 중 어느 하나일 수 있다.Here, the action type may be classified according to the action (action) of the avatar, and one example may include at least one of stop, walk, run, boarding movement, and stationary action. In addition, the visualization type is classified according to the user's viewpoint setting in the digital twin 3D space, and may be either a first person or a third person.

기본 정보 획득부(11)를 통해 현재 사용자 아바타의 공간적 위치, 참여하고 있는 이벤트 정보, 사용자 아바타의 행동 종류 및 시각화 종류를 기본 정보로 획득하면, 본 발명의 아바타 시각화 시스템(1)은 기본 정보를 아바타 상태 분류부(13)로 전달한다. 아바타 상태 분류부(13)는 기본 정보를 이용하여 아바타의 현재 상태를 확인하고 기 설정된 기준에 따라 아바타의 상태 분류를 수행하도록 형성된다. 도 3을 참고하면 이러한 본 발명의 일 실시예에 따른 아바타 상태 분류부(13)는 공간 상태 분류 모듈(131) 및 동작 상태 분류 모듈(133)을 포함하도록 형성될 수 있다.When the spatial position of the current user avatar, participating event information, behavior type and visualization type of the user avatar are obtained as basic information through the basic information acquisition unit 11, the avatar visualization system 1 of the present invention obtains the basic information It is transmitted to the avatar state classification unit 13. The avatar state classification unit 13 is configured to check the current state of the avatar using basic information and classify the state of the avatar according to a preset standard. Referring to FIG. 3 , the avatar state classification unit 13 according to an embodiment of the present invention may include a spatial state classification module 131 and an action state classification module 133 .

공간 상태 분류 모듈(131)은 공간 기본 정보를 이용하여 현재 상태 중 공간 상태를 분류하도록 형성된다. 공간 상태 분류 모듈(131)은 설정된 우선 순위에 따라 공간 기본 정보에 포함된 3D 공간의 종류 또는 이벤트 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정할 수 있다.The spatial state classification module 131 is configured to classify a spatial state among current states using spatial basic information. The spatial state classification module 131 may set one of the types of 3D space or event types included in the space basic information as a priority classification criterion and set the other one as a lower classification criterion according to the set priority order.

공간 상태 분류 모듈(131)에서 사용하는 설정된 우선순위는 사용자의 참여도에 따라 결정될 수 있다. 일 예로 공간은 야외이지만, 이벤트 종류가 실습 활동인 경우 실습 활동에 대한 참여도가 우선되어야 하기 때문에 이벤트 종류가 우선 분류 기준으로 설정될 수 있으며, 하위 분류 기준이 공간 종류로 설정될 수 있다. 또, 공간이 좁은 실내 공간이지만, 이벤트 종류가 참관인 경우 이벤트 참여도가 낮은 반면 공간에 대한 아바타 점유율이 높기 때문에 공간 종류가 우선 분류 기준으로 설정될 수 있다.The set priority used by the spatial state classification module 131 may be determined according to the level of participation of the user. For example, if the space is outdoor, but the event type is a practice activity, since participation in the practice activity should be prioritized, the event type may be set as a priority classification criterion, and the subclassification criterion may be set as the space type. In addition, even though the space is a narrow indoor space, if the event type is an observer, the event participation rate is low, but the avatar occupancy rate for the space is high, so the space type can be set as a priority classification criterion.

동작 상태 분류 모듈(133)은 아바타 기본 정보를 이용하여 현재 상태 중 동작 상태를 분류하도록 형성된다. 동작 상태 분류 모듈(133)은 설정된 우선 순위에 따라 아바타 기본 정보에 포함된 행동 종류 또는 시각화 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정할 수 있다. 여기서, 바람직하게는 동작 상태 분류 모듈(133)은 사용자의 행동 종류를 우선 분류 기준으로 설정하고, 시각화 종류를 하위 분류 기준으로 설정할 수 있다. 이는 시각화 종류는 사용자의 시점을 변경하는 것이므로 동작 상태 분류 모듈(133)이 사용자에게 제안을 할 수는 있지만, 직접 변경하는 것은 사용자의 의도에 반하는 것일 수 있기 때문이다.The action state classification module 133 is configured to classify an action state among current states using avatar basic information. The action state classification module 133 may set one of the action type or visualization type included in the avatar basic information as a priority classification criterion and set the other one as a lower classification criterion according to the set priorities. Here, preferably, the action state classification module 133 may set the user's action type as a priority classification criterion and set the visualization type as a sub-classification criterion. This is because the motion state classification module 133 may make a suggestion to the user because the visualization type is to change the user's point of view, but directly changing it may be against the user's intention.

상태 분류 결과가 출력되면, 본 발명의 아바타 시각화 처리부(15)는 상태 분류 결과를 이용하여 아바타의 시각화를 아바타의 레이어 처리 기법을 통해 수행한다. 아바타 시각화 처리부(15)는 도 4에 도시된 바와 같이 분류 결과 획득 모듈(151), 아바타 시각화 조건 설정 모듈(153) 및 아바타 시각화 수행 모듈(155)을 포함하도록 형성될 수 있다. When the state classification result is output, the avatar visualization processing unit 15 of the present invention performs visualization of the avatar through the avatar layer processing technique using the state classification result. As shown in FIG. 4 , the avatar visualization processing unit 15 may include a classification result acquisition module 151 , an avatar visualization condition setting module 153 and an avatar visualization execution module 155 .

여기서, 레이어 처리 기법은, 아바타를 기 설정된 부위 별로 독립 레이어에 시각화를 수행하며, 복수개의 독립 레이어를 병합하여 아바타를 생성하는 기법이다. 보다 쉽게 설명하면, 레이어 처리 기법을 통해 생성되는 아바타는, 머리, 목, 몸통, 왼허벅지, 왼장딴지, 왼발목, 왼발, 오른허벅지, 오른장딴지, 오른발목, 오른발, 왼윗팔, 왼팔뚝, 왼손, 오른윗팔, 오른팔뚝, 및 오른손이 서로 다른 독립 레이어에 각각 시각화 되고, 이를 병합하여 형성될 수 있다.Here, the layer processing technique is a technique of visualizing an avatar for each predetermined part on an independent layer and generating an avatar by merging a plurality of independent layers. To put it more simply, the avatar created through the layer processing technique is the head, neck, torso, left thigh, left calf, left ankle, left foot, right thigh, right calf, right ankle, right foot, left upper arm, left forearm, left hand, The right upper arm, right forearm, and right hand are each visualized on different independent layers, and may be formed by merging them.

분류 결과 획득 모듈(151)은 상태 분류 결과에 포함된 공간 상태 분류 결과 및 동작 상태 분류 결과를 각각 획득하도록 형성된다. 이를 통해 분류 결과 획득 모듈(151)은 현재 공간 분류, 이벤트 종류, 동작 종류 및 시각화 종류를 획득할 수 있으며, 공간 및 동작에 대한 우선 분류 순위도 획득할 수 있다.The classification result acquisition module 151 is configured to acquire the spatial state classification result and the action state classification result included in the state classification result, respectively. Through this, the classification result acquisition module 151 may acquire the current space classification, event type, motion type, and visualization type, and may also obtain priority classification rankings for space and motion.

아바타 시각화 조건 설정 모듈(153)은 상태 분류 결과에 포함된 우선 순위를 확인하고 우선 순위에 따라 아바타 시각화 조건을 설정할 수 있다. 여기서 아바타 시각화 조건은 공간 상태 별 시각화 조건, 이벤트 종류 별 시각화 조건 및 행동 종류 별 시각화 조건 중 적어도 하나를 포함한다.The avatar visualization condition setting module 153 may check priorities included in the status classification result and set avatar visualization conditions according to the priorities. Here, the avatar visualization condition includes at least one of a visualization condition for each space state, a visualization condition for each event type, and a visualization condition for each action type.

하기 표 1 내지 표 3은 각 시각화 조건(공간 상태 별, 이벤트 종류 별, 행동 종류 별)에 대하여 아바타를 시각화 하는 조건의 예시 중 하나를 나타낸 표이다.Tables 1 to 3 below are tables showing one of examples of conditions for visualizing an avatar for each visualization condition (by space state, by event type, by action type).

공간 상태 별by space state 아바타 시각화 조건Avatar visualization condition ① 야외① outdoor ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ② 넓은 실내② spacious interior ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ③ 개별 실내 공간③ Individual indoor space ③부분표기A 또는 ④부분표기B 또는 ⑤부분표기C(머리, 손과 발)③ part mark A or ④ part mark B or ⑤ part mark C (head, hands and feet) ④ 좁은 실내 공간④ Narrow indoor space ⑥ 부분표기D(머리, 손), ⑦머리표기 (머리만), ⑧손가락표기 (손가락만)⑥ Partial marking D (head, hand), ⑦ Head marking (head only), ⑧ Finger marking (finger only)

이벤트 종류 별By event type 아바타 시각화 조건Avatar visualization condition ① 대외 활동① External activities ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ② 주도 활동② Leading activities ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ③ 실습 활동③ Practice activities ③부분표기A, B, C 또는 D ⑥, ⑦ 또는 ⑧손가락표기 (손가락만) 또는 ⑨③ Partial notation A, B, C or D ⑥, ⑦ or ⑧ Finger notation (finger only) or ⑨

행동 종류 별By behavior type 아바타 시각화 조건Avatar visualization condition ① 정지① stop ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ② 걷기② walking ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ③ 뛰기③ run ③부분표기A, B, C 또는 D(④, ⑤) ~⑥ 또는 ⑦③ Partial marking A, B, C or D (④, ⑤) ~⑥ or ⑦ ④ 탑승 이동④ Boarding transfer ①전신표기(Full body)①Full body ⑤ 제자리 행동⑤ Behavior in place ⑨ 특정 부분(손가락) 확대⑨ Zoom in on a specific part (finger)

본 발명의 일 실시예 중 상술한 표 1 내지 표 3에서, 부분 표기 A 내지 D는 각각 다음과 같은 부분 표기를 의미한다. 부분 표기 A는 머리, 팔 및 다리만 시각화 하는 것을 의미하고, 부분 표기 B는 머리, 팔꿈치 또는 손, 무릎 밑에서 발까지 시각화 하는 것을 의미한다. 또, 부분 표기 C는 머리, 손 및 발을 시각화 하는 것을 의미하며, 부분 표기 D는 머리 및 손만 시각화 하는 것을 의미할 수 있다. 또, A 상체 부분 표기는 허리를 기준으로 모든 상체 부분을 표기하는 것이며, B 하체 부분 표기는 허리를 기준으로 모든 하체 부분을 표기하는 것일 수 있다.상술한 부분 표기 A 내지 D는 본 발명의 일 실시예에 대한 설명일 뿐이며, 본 발명은 이러한 부분 표기가 관리자의 설정에 따라 변경 가능함이 자명하다.In Tables 1 to 3 described above in one embodiment of the present invention, partial marks A to D mean the following partial marks, respectively. Partial notation A means that only the head, arms and legs are visualized, and partial notation B means that the head, elbows or hands, and from the knee down to the feet are visualized. In addition, partial notation C means to visualize the head, hands and feet, and partial notation D may mean to visualize only the head and hands. In addition, the upper body part A may indicate all upper body parts based on the waist, and the lower body part B may indicate all lower body parts based on the waist. It is only a description of the embodiment, and it is obvious that the present invention can change such partial notation according to the administrator's setting.

아바타 시각화 조건 설정 모듈(153)은 자동 모드 또는 수동 모드로 아바타 시각화 조건을 설정할 수도 있다. 수동 모드인 경우 사용자는 직접 아바타 시각화 조건을 설정하고 아바타 시각화 조건 설정 모듈(153)은 사용자 설정 조건을 획득하고 해당 조건을 아바타 시각화 조건으로 설정할 수 있다. 또, 자동 모드인 경우, 아바타 시각화 조건 설정 모듈(153)은 표 1 내지 3에 나타난 시각화 조건을 이용할 수 있으며, 이때 시점은 공간의 크기에 대응하여 1인칭 또는 3인칭으로 자동으로 설정될 수도 있다.The avatar visualization condition setting module 153 may set avatar visualization conditions in an automatic mode or a manual mode. In the case of the manual mode, the user directly sets avatar visualization conditions, and the avatar visualization condition setting module 153 acquires user-set conditions and sets the conditions as avatar visualization conditions. In addition, in the case of the automatic mode, the avatar visualization condition setting module 153 may use the visualization conditions shown in Tables 1 to 3, and in this case, the viewpoint may be automatically set to 1st person or 3rd person in accordance with the size of the space. .

아바타 시각화 수행 모듈(155)은 아바타 시각화 조건을 이용하여 아바타에 대해 레이어 처리 기법을 수행하고 레이어 처리 기법을 통해 아바타의 시각화를 수행할 수 있다. 아바타 시각화 수행 모듈(155)은 아바타 시각화 조건을 획득하고, 아바타 시각화 조건에서 표현하고자 하는 부위를 제외한 독립 레이어들을 제거함으로써 상술한 부분 표기를 수행할 수 있다.The avatar visualization performing module 155 may perform a layer processing technique on the avatar using the avatar visualization condition and perform visualization of the avatar through the layer processing technique. The avatar visualization execution module 155 may perform the above-described partial marking by obtaining avatar visualization conditions and removing independent layers excluding a region to be expressed in the avatar visualization conditions.

한편, 아바타 시각화 처리부(15)는 현재 사용자에게 본인의 아바타 뿐만 아니라 타인의 아바타에 대해서도 시각화 처리를 수행하도록 형성될 수 있다. 강의를 듣는 이벤트가 발생한 경우, 사용자 아바타가 강의실 내의 중간에 착석하고 있다면, 현실과 같이 표현되면 사용자는 앞사람의 머리 또는 강의자의 몸에 가려 칠판 등에 필기되고 있는 내용을 정확히 확인하기 어렵다는 문제점이 존재한다.Meanwhile, the avatar visualization processing unit 15 may be configured to perform visualization processing not only on the current user's own avatar but also on other people's avatars. If an event of listening to a lecture occurs and the user's avatar is seated in the middle of the classroom, if it is expressed realistically, the user is covered by the head of the person in front or the body of the lecturer, making it difficult to accurately check the content being written on the blackboard. .

따라서, 아바타 시각화 처리부(15)는 이러한 점을 고려하여 이벤트 발생 시 해당 공간 내의 모든 아바타의 시야 범위를 각각 획득하고, 특정 아바타의 시야를 현재 사용자의 아바타가 방해하는 경우, 해당 아바타의 시야에서 레이어 처리를 사용하여 시야를 가리는 현재 사용자의 아바타 신체 부위를 삭제함으로써 다른 사람들에게는 해당 아바타가 정상적으로 보이고, 시야의 방해를 받는 아바타에게서는 시야 방해 부분이 제거되도록 할 수도 있다.Accordingly, the avatar visualization processing unit 15 acquires the field of view of all avatars in the space when an event occurs in consideration of this point, and when the current user's avatar obstructs the field of view of a specific avatar, the layer in the field of view of the avatar Processing can also be used to delete body parts of the current user's avatar that block the view, so that the avatar looks normal to other people, and the view-obstructing parts are removed from the avatar that blocks the view.

이러한 처리를 전체 이벤트 공간 내의 아바타에게 각각 적용하면, 모든 아바타들이 몰입감을 최대한 유지함과 동시에 시야 방해 요소를 최소화할 수 있는 아바타 시각화 시스템(1)을 제공할 수도 있다.If such processing is applied to each avatar within the entire event space, it is possible to provide an avatar visualization system 1 capable of maximally maintaining a sense of immersion for all avatars and minimizing elements that obstruct the view.

한편, 도 5 내지 도 8에는 본 발명의 일 실시예에 따른 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법이 도시되고 있다. 도 5는 본 발명의 실시예에 따른 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템을 나타낸 순서도이고, 도 6은 도 5의 단계 S11을 나타낸 순서도이며, 도 7은 도 5의 단계 S13을 나타낸 순서도이고, 도 8은 도 5의 단계 S15를 나타낸 순서도이다. 이하에서는 도 5 내지 도 8을 이용하여 본 발명의 일 실시예에 따른 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법(이하, 편의상 아바타 시각화 방법이라 함)에 대하여 상세히 설명하도록 한다. 또, 이하에서는 도 1에 도시된 아바타 시각화 시스템에서 본 발명의 아바타 시각화 방법이 구현되는 것으로 설명하지만, 이는 설명의 편의를 위한 것일 뿐이며 본 발명의 방법은 상술한 시스템에 한정되지 않는 것이 자명하다.Meanwhile, FIGS. 5 to 8 illustrate a method for visualizing an avatar for each layer in a digital twin 3D space according to an embodiment of the present invention. 5 is a flow chart showing an avatar visualization system for each layer on a digital twin 3D space according to an embodiment of the present invention, FIG. 6 is a flow chart showing step S11 of FIG. 5, and FIG. 7 is a flow chart showing step S13 of FIG. , FIG. 8 is a flowchart illustrating step S15 of FIG. 5 . Hereinafter, an avatar visualization method for each layer in a digital twin 3D space according to an embodiment of the present invention (hereinafter referred to as an avatar visualization method for convenience) will be described in detail with reference to FIGS. 5 to 8 . In addition, hereinafter, the avatar visualization method of the present invention will be described as being implemented in the avatar visualization system shown in FIG.

본 발명의 일 실시예에 따른 아바타 시각화 방법은 사용자의 아바타를 가상 현실에 시각화하여, 가상 현실에서 발생하는 이벤트를 아바타가 수행하거나 특정 공간에서 특정 동작을 수행하도록 할 수 있는 방법이다. 특히, 본 발명의 실시예에서는 후술되는 레이어 처리 기법을 이용하여 사용자의 아바타를 특정 조건에 맞게 특정 레이어만 시각화 함으로써 몰입감을 유지하고 다른 아바타들의 시야 제한을 방지할 수 있는 효과를 갖도록 형성된다.An avatar visualization method according to an embodiment of the present invention is a method of visualizing a user's avatar in virtual reality and enabling the avatar to perform an event occurring in virtual reality or to perform a specific motion in a specific space. In particular, in the embodiment of the present invention, only a specific layer of the user's avatar is visualized according to specific conditions using a layer processing technique described later, thereby maintaining a sense of immersion and preventing other avatars from being limited in their field of view.

이를 위해 본 발명의 일 실시예에 따른 아바타 시각화 방법(10)은 도 5에 도시된 바와 같이 기본 정보를 획득하는 단계(S11), 아바타 상태를 분류하는 단계(S13) 및 아바타 시각화를 처리하는 단계(S15)를 포함하도록 형성된다.To this end, the avatar visualization method 10 according to an embodiment of the present invention includes obtaining basic information (S11), classifying avatar states (S13), and processing avatar visualization as shown in FIG. (S15).

기본 정보를 획득하는 단계(S11)는 디지털 트윈 3D 공간에서 사용자의 아바타를 시각화 하기 위해 기본 정보 획득부를 이용하여 사용자 아바타 및 디지털 트윈 3D 공간에 대한 기본 정보를 획득하도록 형성된다. 여기서, 기본 정보는 디지털 트윈 3D 공간에 대한 기본 정보인 공간 기본 정보와 사용자 아바타에 대한 기본 정보인 아바타 기본 정보를 포함할 수 있다. 기본 정보를 획득하는 단계(S11)는 도 6에 도시된 바와 같이 공간 기본 정보를 획득하는 단계(S111) 및 아바타 기본 정보를 획득하는 단계(S113)를 포함하도록 형성될 수 있다.The step of obtaining basic information (S11) is formed to obtain basic information about the user avatar and the digital twin 3D space by using the basic information acquisition unit to visualize the user's avatar in the digital twin 3D space. Here, the basic information may include space basic information, which is basic information about the digital twin 3D space, and avatar basic information, which is basic information about the user's avatar. Acquiring basic information (S11) may include acquiring basic space information (S111) and acquiring basic avatar information (S113) as shown in FIG. 6 .

공간 기본 정보를 획득하는 단계(S111)는 디지털 트윈 3D 공간의 종류 및 디지털 트윈 3D 공간에서 수행되는 이벤트 종류를 포함하는 공간 기본 정보를 획득하도록 형성된다. The step of obtaining space basic information (S111) is configured to acquire basic space information including the type of digital twin 3D space and the type of event performed in the digital twin 3D space.

여기서, 디지털 트윈 3D 공간의 종류는 기 설정된 공간 구분 기준에 따라 분류될 수 있으며, 일 예시로는 야외, 넓은 실내, 개별 실내 공간 및 좁은 실내 공간 중 어느 하나로 표현될 수 있다.Here, the type of digital twin 3D space may be classified according to a predetermined space classification criterion, and as an example, it may be expressed as one of outdoor, wide indoor, individual indoor space, and narrow indoor space.

본 발명의 실시예에서 야외는 공원, 학교, 거리, 공항, 공장의 외부 등일 수 있으며, 넓은 실내는 공연장, 전시장, 넓은 공장 내부, 선박의 기관실 또는 조타실 등일 수 있다. 또, 개별 실내 공간은 강의실, 회의장, 제어실 등일 수 있으며, 좁은 실내 공간은 비행기 조종실, 차량 내부 공간, 장갑차 내부, 좁은 창고, 첨성대 내부 등일 수 있다.In an embodiment of the present invention, the outdoor may be a park, school, street, airport, outside of a factory, etc., and the spacious interior may be a performance hall, exhibition hall, a spacious factory interior, a ship's engine room, or a wheelhouse. In addition, the individual indoor space may be a lecture room, conference hall, control room, etc., and the narrow indoor space may be an airplane cockpit, a vehicle interior space, an armored vehicle interior, a narrow warehouse, or the inside of Cheomseongdae.

기 설정된 공간 구분 기준은 관리자의 설정에 따라 변경될 수 있다. 일 예로 공간 분류는 해당 공간의 물리적인 넓이를 기준으로 분류될 수 도 있으며, 해당 공간에 입장 가능한 최대 인원(아바타 수)을 기준으로 분류될 수 도 있다.The preset space division criterion may be changed according to a manager's setting. For example, space classification may be based on the physical size of the space, or based on the maximum number of people (number of avatars) that can enter the space.

또, 공간 기본 정보를 획득하는 단계(S111)에서 획득하는 이벤트 종류는 기 설정된 이벤트 종류 구분 기준에 따라 분류되며, 일 예시로는 대외 활동, 주도 활동 및 실습 활동 중 어느 하나로 표현될 수 있다.In addition, the event type acquired in the step of acquiring space basic information (S111) is classified according to a preset event type classification criterion, and as an example, it may be expressed as any one of external activities, leading activities, and practice activities.

본 발명의 실시예에서 대외 활동은 전시회, 경기참관, 행사참여, 쇼핑 등일 수 있으며, 주도 활동은 운동, 공연발표, 강의 등일 수 있다. 또, 실습 활동은 본인의 행동이 구체적으로 표현되어야 하는 활동으로 실습 또는 훈련 등일 수 있다.In an embodiment of the present invention, external activities may be exhibitions, game observation, event participation, shopping, and the like, and leading activities may be sports, performance presentations, lectures, and the like. In addition, the practice activity is an activity in which a person's behavior is specifically expressed, and may be practice or training.

기 설정된 이벤트 종류는 관리자의 설정에 따라 변경될 수 있다. 일 예로 이벤트 분류는 해당 이벤트의 진행에 대한 해당 사용자의 관여도에 따라 분류될 수 있다.The preset event type may be changed according to a manager's setting. For example, event classification may be classified according to the user's involvement in the progress of the corresponding event.

아바타 기본 정보를 획득하는 단계(S113)는 사용자 아바타에 대한 행동 종류 및 시각화 종류를 포함하는 아바타 기본 정보를 획득하도록 형성된다. The step of obtaining avatar basic information (S113) is configured to acquire avatar basic information including the behavior type and visualization type of the user avatar.

여기서, 행동 종류는 아바타의 행동(동작)에 따라 분류될 수 있으며, 일 예시로는 정지, 걷기, 뛰기, 탑승 이동 및 제자리 행동 중 적어도 하나를 포함할 수 있다. 또, 시각화 종류는 디지털 트윈 3D 공간에서의 사용자의 시점 설정에 따라 분류되며, 1인칭 또는 3인칭 중 어느 하나일 수 있다.Here, the action type may be classified according to the action (action) of the avatar, and one example may include at least one of stop, walk, run, boarding movement, and stationary action. In addition, the visualization type is classified according to the user's viewpoint setting in the digital twin 3D space, and may be either a first person or a third person.

기본 정보를 획득하는 단계(S11)를 통해 현재 사용자 아바타의 공간적 위치, 참여하고 있는 이벤트 정보, 사용자 아바타의 행동 종류 및 시각화 종류를 기본 정보로 획득하면, 본 발명의 아바타 시각화 방법(10)은 기본 정보를 아바타 상태를 분류하는 단계(S13)로 전달한다. 아바타 상태를 분류하는 단계(S13)는 기본 정보를 이용하여 아바타의 현재 상태를 확인하고 기 설정된 기준에 따라 아바타의 상태 분류를 아바타 상태 분류부를 이용하여 수행하도록 형성된다. 도 7을 참고하면 이러한 본 발명의 일 실시예에 따른 아바타 상태를 분류하는 단계(S13)는 공간 상태 분류를 수행하는 단계(S131) 및 동작 상태 분류를 수행하는 단계(S133)를 포함하도록 형성될 수 있다.If the spatial position of the current user avatar, participating event information, behavior type and visualization type of the user avatar are obtained as basic information through the step of acquiring basic information (S11), the avatar visualization method 10 of the present invention provides basic information. The information is delivered to the step of classifying the avatar state (S13). In the step of classifying the avatar state (S13), the current state of the avatar is checked using basic information, and the state of the avatar is classified according to a predetermined criterion using the avatar state classification unit. Referring to FIG. 7 , the step of classifying the avatar state (S13) according to an embodiment of the present invention may be formed to include a step of performing spatial state classification (S131) and a step of performing motion state classification (S133). can

공간 상태 분류를 수행하는 단계(S131)는 공간 기본 정보를 이용하여 현재 상태 중 공간 상태를 분류하도록 형성된다. 공간 상태 분류를 수행하는 단계(S131)는 설정된 우선 순위에 따라 공간 기본 정보에 포함된 3D 공간의 종류 또는 이벤트 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정할 수 있다.In the step of performing spatial state classification (S131), a spatial state among current states is classified using spatial basic information. In the step of performing spatial state classification (S131), one of the 3D space types or event types included in the space basic information may be set as a priority classification criterion, and the other may be set as a subclassification criterion according to the set priority order. .

공간 상태 분류를 수행하는 단계(S131)에서 사용하는 설정된 우선순위는 사용자의 참여도에 따라 결정될 수 있다. 일 예로 공간은 야외이지만, 이벤트 종류가 실습 활동인 경우 실습 활동에 대한 참여도가 우선되어야 하기 때문에 이벤트 종류가 우선 분류 기준으로 설정될 수 있으며, 하위 분류 기준이 공간 종류로 설정될 수 있다. 또, 공간이 좁은 실내 공간이지만, 이벤트 종류가 참관인 경우 이벤트 참여도가 낮은 반면 공간에 대한 아바타 점유율이 높기 때문에 공간 종류가 우선 분류 기준으로 설정될 수 있다.The set priority used in the step of performing spatial state classification (S131) may be determined according to the degree of participation of the user. For example, if the space is outdoor, but the event type is a practice activity, since participation in the practice activity should be prioritized, the event type may be set as a priority classification criterion, and the subclassification criterion may be set as the space type. In addition, even though the space is a narrow indoor space, if the event type is an observer, the event participation rate is low, but the avatar occupancy rate for the space is high, so the space type can be set as a priority classification criterion.

동작 상태 분류를 수행하는 단계(S133)는 아바타 기본 정보를 이용하여 현재 상태 중 동작 상태를 분류하도록 형성된다. 동작 상태 분류를 수행하는 단계(S133)는 설정된 우선 순위에 따라 아바타 기본 정보에 포함된 행동 종류 또는 시각화 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정할 수 있다. 여기서, 바람직하게는 동작 상태 분류를 수행하는 단계(S133)는 사용자의 행동 종류를 우선 분류 기준으로 설정하고, 시각화 종류를 하위 분류 기준으로 설정할 수 있다. 이는 시각화 종류는 사용자의 시점을 변경하는 것이므로 동작 상태 분류를 수행하는 단계(S133)이 사용자에게 제안을 할 수는 있지만, 직접 변경하는 것은 사용자의 의도에 반하는 것일 수 있기 때문이다.The step of classifying the motion state (S133) is configured to classify the motion state among the current states by using the avatar basic information. In the step of classifying the motion state (S133), one of the behavior type or visualization type included in the basic avatar information may be set as a priority classification criterion and the other one may be set as a sub-classification criterion according to the set priority order. Here, preferably, in the step of classifying the action state (S133), the user's action type may be set as a priority classification criterion, and the visualization type may be set as a sub-classification criterion. This is because the visualization type is to change the user's point of view, so the operation state classification step (S133) may make a suggestion to the user, but directly changing it may be against the user's intention.

상태 분류 결과가 출력되면, 본 발명의 아바타 시각화를 처리하는 단계(S15)는 상태 분류 결과를 이용하여 아바타의 시각화를 아바타의 레이어 처리 기법을 통해 아바타 시각화 처리부에서 수행한다. 아바타 시각화를 처리하는 단계(S15)는 도 8에 도시된 바와 같이 분류 결과를 획득하는 단계(S151), 아바타 시각화 조건을 설정하는 단계(S153) 및 아바타 시각화를 수행하는 단계(S155)를 포함하도록 형성될 수 있다. When the state classification result is output, the avatar visualization processing step (S15) of the present invention performs visualization of the avatar using the state classification result in the avatar visualization processing unit through the avatar layer processing technique. The avatar visualization processing step (S15) includes obtaining a classification result (S151), setting avatar visualization conditions (S153), and performing avatar visualization (S155) as shown in FIG. can be formed

여기서, 레이어 처리 기법은, 아바타를 기 설정된 부위 별로 독립 레이어에 시각화를 수행하며, 복수개의 독립 레이어를 병합하여 아바타를 생성하는 기법이다. 보다 쉽게 설명하면, 레이어 처리 기법을 통해 생성되는 아바타는, 머리, 목, 몸통, 왼허벅지, 왼장딴지, 왼발목, 왼발, 오른허벅지, 오른장딴지, 오른발목, 오른발, 왼윗팔, 왼팔뚝, 왼손, 오른윗팔, 오른팔뚝, 및 오른손이 서로 다른 독립 레이어에 각각 시각화 되고, 이를 병합하여 형성될 수 있다.Here, the layer processing technique is a technique of visualizing an avatar for each predetermined part on an independent layer and generating an avatar by merging a plurality of independent layers. To put it more simply, the avatar created through the layer processing technique is the head, neck, torso, left thigh, left calf, left ankle, left foot, right thigh, right calf, right ankle, right foot, left upper arm, left forearm, left hand, The right upper arm, right forearm, and right hand are each visualized on different independent layers, and may be formed by merging them.

분류 결과를 획득하는 단계(S151)는 상태 분류 결과에 포함된 공간 상태 분류 결과 및 동작 상태 분류 결과를 각각 획득하도록 형성된다. 이를 통해 분류 결과를 획득하는 단계(S151)는 현재 공간 분류, 이벤트 종류, 동작 종류 및 시각화 종류를 획득할 수 있으며, 공간 및 동작에 대한 우선 분류 순위도 획득할 수 있다.The step of obtaining a classification result (S151) is configured to obtain a spatial state classification result and an action state classification result included in the state classification result, respectively. In step S151 of obtaining a classification result through this, the current space classification, event type, motion type, and visualization type may be obtained, and priority classification rankings for space and motion may also be obtained.

아바타 시각화 조건을 설정하는 단계(S153)는 상태 분류 결과에 포함된 우선 순위를 확인하고 우선 순위에 따라 아바타 시각화 조건을 설정할 수 있다. 여기서 아바타 시각화 조건은 공간 상태 별 시각화 조건, 이벤트 종류 별 시각화 조건 및 행동 종류 별 시각화 조건 중 적어도 하나를 포함한다.In the step of setting avatar visualization conditions (S153), priorities included in the status classification result may be checked and avatar visualization conditions may be set according to the priorities. Here, the avatar visualization condition includes at least one of a visualization condition for each space state, a visualization condition for each event type, and a visualization condition for each action type.

하기 표 4 내지 표 6은 각 시각화 조건(공간 상태 별, 이벤트 종류 별, 행동 종류 별)에 대하여 아바타를 시각화 하는 조건의 예시 중 하나를 나타낸 표이다.Tables 4 to 6 below are tables showing one of examples of conditions for visualizing an avatar for each visualization condition (by space state, by event type, by action type).

공간 상태 별by space state 아바타 시각화 조건Avatar visualization condition ① 야외① outdoor ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ② 넓은 실내② spacious interior ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ③ 개별 실내 공간③ Individual indoor space ③부분표기A 또는 ④부분표기B 또는 ⑤부분표기C(머리, 손과 발)③ part mark A or ④ part mark B or ⑤ part mark C (head, hands and feet) ④ 좁은 실내 공간④ Narrow indoor space ⑥ 부분표기D(머리, 손), ⑦머리표기 (머리만), ⑧손가락표기 (손가락만)⑥ Partial marking D (head, hands), ⑦ Head marking (head only), ⑧ Finger marking (finger only)

이벤트 종류 별By event type 아바타 시각화 조건Avatar visualization condition ① 대외 활동① External activities ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ② 주도 활동② Leading activities ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ③ 실습 활동③ Practice activities ③부분표기A, B, C 또는 D ⑥, ⑦ 또는 ⑧손가락표기 (손가락만) 또는 ⑨③ Partial notation A, B, C or D ⑥, ⑦ or ⑧ Finger notation (finger only) or ⑨

행동 종류 별By behavior type 아바타 시각화 조건Avatar visualization condition ① 정지① stop ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ② 걷기② walking ①전신표기(Full body), ②-A 상체 부분표기, ②-B 하체 부분표기① full body, ②-A upper body part, ②-B lower body part ③ 뛰기③ run ③부분표기A, B, C 또는 D(④, ⑤) ~⑥ 또는 ⑦③ Partial marking A, B, C or D (④, ⑤) ~⑥ or ⑦ ④ 탑승 이동④ Boarding transfer ①전신표기(Full body)①Full body ⑤ 제자리 행동⑤ Behavior in place ⑨ 특정 부분(손가락) 확대⑨ Zoom in on a specific part (finger)

본 발명의 일 실시예 중 상술한 표 4 내지 표 6에서, 부분 표기 A 내지 D는 각각 다음과 같은 부분 표기를 의미한다. 부분 표기 A는 머리, 팔 및 다리만 시각화 하는 것을 의미하고, 부분 표기 B는 머리, 팔꿈치 또는 손, 무릎 밑에서 발까지 시각화 하는 것을 의미한다. 또, 부분 표기 C는 머리, 손 및 발을 시각화 하는 것을 의미하며, 부분 표기 D는 머리 및 손만 시각화 하는 것을 의미할 수 있다. 또, A 상체 부분 표기는 허리를 기준으로 모든 상체 부분을 표기하는 것이며, B 하체 부분 표기는 허리를 기준으로 모든 하체 부분을 표기하는 것일 수 있다.상술한 부분 표기 A 내지 D는 본 발명의 일 실시예에 대한 설명일 뿐이며, 본 발명은 이러한 부분 표기가 관리자의 설정에 따라 변경 가능함이 자명하다.In Tables 4 to 6 described above in one embodiment of the present invention, partial marks A to D mean the following partial marks, respectively. Partial notation A means that only the head, arms and legs are visualized, and partial notation B means that the head, elbows or hands, and from the knee down to the feet are visualized. In addition, partial notation C means to visualize the head, hands and feet, and partial notation D may mean to visualize only the head and hands. In addition, the upper body part A may indicate all upper body parts based on the waist, and the lower body part B may indicate all lower body parts based on the waist. It is only a description of the embodiment, and it is obvious that the present invention can change such partial notation according to the administrator's setting.

아바타 시각화 조건을 설정하는 단계(S153)는 자동 모드 또는 수동 모드로 아바타 시각화 조건을 설정할 수도 있다. 수동 모드인 경우 사용자는 직접 아바타 시각화 조건을 설정하고 아바타 시각화 조건을 설정하는 단계(S153)는 사용자 설정 조건을 획득하고 해당 조건을 아바타 시각화 조건으로 설정할 수 있다. 또, 자동 모드인 경우, 아바타 시각화 조건을 설정하는 단계(S153)는 표 4 내지 6에 나타난 시각화 조건을 이용할 수 있으며, 이때 시점은 공간의 크기에 대응하여 1인칭 또는 3인칭으로 자동으로 설정될 수도 있다.In the step of setting the avatar visualization conditions (S153), the avatar visualization conditions may be set in an automatic mode or a manual mode. In the case of the manual mode, the user directly sets avatar visualization conditions, and in the step of setting avatar visualization conditions (S153), user-set conditions may be acquired and the conditions may be set as avatar visualization conditions. In addition, in the case of the automatic mode, the step of setting avatar visualization conditions (S153) may use the visualization conditions shown in Tables 4 to 6, and at this time, the viewpoint may be automatically set to first person or third person in accordance with the size of the space. may be

아바타 시각화를 수행하는 단계(S155)는 아바타 시각화 조건을 이용하여 아바타에 대해 레이어 처리 기법을 수행하고 레이어 처리 기법을 통해 아바타의 시각화를 수행할 수 있다. 아바타 시각화를 수행하는 단계(S155)는 아바타 시각화 조건을 획득하고, 아바타 시각화 조건에서 표현하고자 하는 부위를 제외한 독립 레이어들을 제거함으로써 상술한 부분 표기를 수행할 수 있다.In the step of performing avatar visualization (S155), a layer processing technique may be performed on the avatar using the avatar visualization condition, and the avatar may be visualized through the layer processing technique. In the step of performing avatar visualization (S155), the above-described partial marking may be performed by obtaining avatar visualization conditions and removing independent layers excluding a region to be expressed in the avatar visualization conditions.

한편, 아바타 시각화를 처리하는 단계(S15)는 현재 사용자에게 본인의 아바타 뿐만 아니라 타인의 아바타에 대해서도 시각화 처리를 수행하도록 형성될 수 있다. 강의를 듣는 이벤트가 발생한 경우, 사용자 아바타가 강의실 내의 중간에 착석하고 있다면, 현실과 같이 표현되면 사용자는 앞사람의 머리 또는 강의자의 몸에 가려 칠판 등에 필기되고 있는 내용을 정확히 확인하기 어렵다는 문제점이 존재한다.Meanwhile, in the step of processing avatar visualization (S15), visualization processing may be performed not only for the current user's own avatar but also for other people's avatars. If an event of listening to a lecture occurs and the user's avatar is seated in the middle of the classroom, if it is expressed realistically, the user is covered by the head of the person in front or the body of the lecturer, making it difficult to accurately check the content being written on the blackboard. .

따라서, 아바타 시각화를 처리하는 단계(S15)는 이러한 점을 고려하여 이벤트 발생 시 해당 공간 내의 모든 아바타의 시야 범위를 각각 획득하고, 특정 아바타의 시야를 현재 사용자의 아바타가 방해하는 경우, 해당 아바타의 시야에서 레이어 처리를 사용하여 시야를 가리는 현재 사용자의 아바타 신체 부위를 삭제함으로써 다른 사람들에게는 해당 아바타가 정상적으로 보이고, 시야의 방해를 받는 아바타에게서는 시야 방해 부분이 제거되도록 할 수도 있다.Therefore, in the step of processing the avatar visualization (S15), in consideration of this point, when an event occurs, the field of view of all the avatars in the space is obtained, and if the current user's avatar interferes with the field of view of a specific avatar, the avatar of the current user By deleting body parts of the current user's avatar that block the view using layer processing in the field of view, the avatar can be seen normally by other people, and the part that obstructs the field of view can be removed from the avatar.

이러한 처리를 전체 이벤트 공간 내의 아바타에게 각각 적용하면, 모든 아바타들이 몰입감을 최대한 유지함과 동시에 시야 방해 요소를 최소화할 수 있는 아바타 시각화 방법(10)을 제공할 수도 있다.If such processing is applied to each avatar within the entire event space, it is possible to provide an avatar visualization method 10 capable of maximally maintaining a sense of immersion in all avatars and minimizing elements obstructing the view.

도 9는 본 발명의 디지털 트윈 3D 공간에서 특정 사용자의 아바타에 의해 시야가 제한되는 예시를 나타낸 도이고, 도 10은 본 발명의 일 실시예에 따라 아바타가 특정 공간에 시각화 되는 예시를 나타낸 도이다.9 is a diagram showing an example in which the field of view is limited by a specific user's avatar in the digital twin 3D space of the present invention, and FIG. 10 is a diagram showing an example in which the avatar is visualized in a specific space according to an embodiment of the present invention. .

상술한 본 발명의 아바타 시각화 시스템 및 방법을 이용하는 경우는 도 9 a 및 b와 같이 현재 사용자의 아바타의 시야를 강의자가 가려 시야 방해를 하는 경우일 수 있다. 일 예시를 참고하면, 도 9 a 및 b에서는 강의자의 뒷 모습 보다 손이 어느 부분을 터치하는지를 확인하는 것이 더 중요하기 때문에 본 발명의 아바타 시각화 시스템 및 방법이 강의자의 아바타를 구성하는 레이어 중 손가락 또는 손만 제외하고 모두 시각화에서 제외함으로써 강의자가 어느 부분을 터치하는지 쉽게 확인하도록 할 수 있다.In the case of using the above-described avatar visualization system and method of the present invention, as shown in FIGS. Referring to an example, in FIG. 9 a and b, since it is more important to check which part the lecturer's hand is touching than the back view of the lecturer, the avatar visualization system and method of the present invention are the fingers or By excluding everything except the hand from the visualization, the lecturer can easily check which part is being touched.

도 10을 참고하면, 본 발명의 아바타 시각화 시스템 및 방법은 도 10a와 같이 동작 및 시선을 확인하기 위해서 머리 및 손만 시각화(부분 표기 D)할 수도 있고, 도 10b 내지 10d와 같이 전신을 시각화(넓은 실내 전신 표기 / 야외 전신 표기 / 개별 실내 전신 표기)할 수도 있다.Referring to FIG. 10, the avatar visualization system and method of the present invention may visualize only the head and hands (partial marking D) to check motion and gaze as shown in FIG. 10a, or visualize the whole body as shown in FIGS. indoor full body marking / outdoor full body marking / individual indoor full body marking).

이상에서 본 발명의 일 실시예에 대하여 설명하였으나, 본 발명의 사상은 본 명세서에 제시되는 실시 예에 제한되지 아니하며, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서, 구성요소의 부가, 변경, 삭제, 추가 등에 의해서 다른 실시 예를 용이하게 제안할 수 있을 것이나, 이 또한 본 발명의 사상범위 내에 든다고 할 것이다.Although one embodiment of the present invention has been described above, the spirit of the present invention is not limited to the embodiments presented herein, and those skilled in the art who understand the spirit of the present invention may add elements within the scope of the same spirit. However, other embodiments can be easily proposed by means of changes, deletions, additions, etc., but these will also fall within the scope of the present invention.

1: 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템
11: 기본 정보 획득부
13: 아바타 상태 분류부
15: 아바타 시각화 처리부
111: 공간 기본 정보 획득 모듈
113: 아바타 기본 정보 획득 모듈
131: 공간 상태 분류 모듈
133: 동작 상태 분류 모듈
151: 분류 결과 획득 모듈
153: 아바타 시각화 조건 설정 모듈
155: 아바타 시각화 수행 모듈
1: Layer-by-layer avatar visualization system in digital twin 3D space
11: basic information acquisition unit
13: avatar state classification unit
15: avatar visualization processing unit
111: spatial basic information acquisition module
113: avatar basic information acquisition module
131: spatial state classification module
133: operating state classification module
151: classification result acquisition module
153: avatar visualization condition setting module
155: avatar visualization performance module

Claims (22)

디지털 트윈 3D 공간에서 사용자의 아바타를 시각화 하기 위해 상기 사용자 아바타 및 상기 디지털 트윈 3D 공간에 대한 기본 정보를 획득하는 기본 정보 획득부;
상기 기본 정보를 이용하여 상기 아바타의 현재 상태를 확인하고 기 설정된 기준에 따라 상기 아바타의 상태 분류를 수행하는 아바타 상태 분류부; 및
상기 상태 분류 결과를 이용하여 상기 아바타의 시각화를 상기 아바타의 레이어 처리 기법을 통해 수행하는 아바타 시각화 처리부;를 포함하고
상기 기본 정보는 상기 디지털 트윈 3D 공간에 대한 기본 정보인 공간 기본 정보 및 상기 사용자 아바타에 대한 기본 정보인 아바타 기본 정보를 포함하며,
상기 기본 정보 획득부는,
상기 사용자의 아바타에 대한 행동 종류 및 상기 디지털 트윈 3D 공간에서의 상기 사용자의 시점에 따라 분류되며 1인칭 또는 3인칭 중 어느 하나인 시각화 종류를 포함하는 상기 사용자의 아바타 기본 정보를 획득하는 아바타 기본 정보 획득 모듈;을 포함하며,
상기 아바타 상태 분류부는,
상기 공간 기본 정보를 이용하여 상기 사용자의 아바타의 현재 상태 중 공간 상태를 분류하는 공간 상태 분류 모듈; 및 상기 사용자의 아바타 기본 정보를 이용하여 상기 사용자의 아바타의 현재 상태 중 동작 상태를 분류하며, 설정된 우선순위에 따라 상기 사용자의 아바타 기본 정보에 포함된 행동 종류 또는 시각화 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정하는 동작 상태 분류 모듈;을 포함하며,
상기 아바타 시각화 처리부는,
이벤트 발생 시 해당 공간 내의 모든 아바타의 시야 범위를 각각 획득하며, 특정 아바타의 시야를 현재 사용자의 아바타가 방해하는 경우, 상기 특정 아바타의 시야에서 시야를 가리는 상기 현재 사용자의 아바타의 신체 부위를 레이어 처리를 통해 삭제하는 것을 특징으로 하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템.
a basic information acquisition unit acquiring basic information about the user avatar and the digital twin 3D space in order to visualize the user's avatar in the digital twin 3D space;
an avatar state classification unit that checks the current state of the avatar using the basic information and classifies the state of the avatar according to a preset standard; and
An avatar visualization processing unit that performs visualization of the avatar through an avatar layer processing technique using a result of the state classification; and
The basic information includes space basic information that is basic information about the digital twin 3D space and avatar basic information that is basic information about the user avatar,
The basic information acquisition unit,
Avatar basic information for acquiring the basic information of the user's avatar, which is classified according to the user's avatar behavior type and the user's viewpoint in the digital twin 3D space, and includes a visualization type of either a first person or a third person Acquisition module; includes,
The avatar state classification unit,
a spatial state classification module classifying a spatial state among current states of the user's avatar using the spatial basic information; and classifying motion states among the current states of the user's avatar by using the basic information of the user's avatar, and prioritizing any one of the action type or visualization type included in the user's avatar basic information according to the set priority level as a priority classification criterion. and an operating state classification module for setting the other one as a sub-classification criterion;
The avatar visualization processing unit,
When an event occurs, the field of view of all avatars in the space is acquired, and if the current user's avatar obstructs the field of view of a specific avatar, the body part of the current user's avatar that blocks the field of view from the field of view of the specific avatar is layered. Avatar visualization system for each layer in digital twin 3D space, characterized in that it is deleted through.
제 1항에 있어서,
상기 기본 정보 획득부는,
상기 디지털 트윈 3D 공간의 종류 및 상기 디지털 트윈 3D 공간에서 수행되는 이벤트 종류를 포함하는 상기 공간 기본 정보를 획득하는 공간 기본 정보 획득 모듈; 및
상기 사용자 아바타에 대한 행동 종류 및 시각화 종류를 포함하는 상기 아바타 기본 정보를 획득하는 아바타 기본 정보 획득 모듈;을 포함하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템.
According to claim 1,
The basic information acquisition unit,
a space basic information acquisition module for acquiring the space basic information including the type of the digital twin 3D space and the type of event performed in the digital twin 3D space; and
Avatar visualization system for each layer on the digital twin 3D space, comprising: an avatar basic information obtaining module for acquiring the avatar basic information including the behavior type and visualization type of the user avatar.
제 2항에 있어서,
상기 디지털 트윈 3D 공간의 종류는 기 설정된 공간 구분 기준에 따라 분류되며, 야외, 넓은 실내, 개별 실내 공간 및 좁은 실내 공간 중 적어도 하나로 표현되고,
상기 이벤트 종류는 기 설정된 이벤트 종류 구분 기준에 따라 분류되며, 대외 활동, 주도 활동 및 실습 활동 중 적어도 하나로 표현되는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템.
According to claim 2,
The type of the digital twin 3D space is classified according to a predetermined space classification criterion, and is expressed as at least one of outdoor, wide indoor, individual indoor space, and narrow indoor space,
The event type is classified according to a predetermined event type classification criterion, and the avatar visualization system for each layer in the digital twin 3D space is represented by at least one of external activities, initiative activities, and practice activities.
제 2항에 있어서,
상기 행동 종류는 상기 아바타의 행동(동작)에 따라 분류되며, 정지, 걷기, 뛰기, 탑승 이동 및 제자리 행동 중 적어도 하나를 포함하며,
상기 시각화 종류는 상기 디지털 트윈 3D 공간에서의 상기 사용자의 시점에 따라 분류되며 1인칭 또는 3인칭 중 어느 하나인 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템.
According to claim 2,
The action type is classified according to the action (action) of the avatar, and includes at least one of stop, walk, run, boarding movement, and stationary action,
The visualization type is classified according to the user's viewpoint in the digital twin 3D space, and the avatar visualization system for each layer on the digital twin 3D space, which is either a first person or a third person.
삭제delete 제 1항에 있어서,
상기 공간 상태 분류 모듈은,
설정된 우선순위에 따라 상기 공간 기본 정보에 포함된 3D 공간의 종류 또는 이벤트 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템.
According to claim 1,
The spatial state classification module,
According to the set priority, one of the 3D space types or event types included in the space basic information is set as a priority classification criterion, and the other is set as a sub-classification criterion Avatar visualization system for each layer on the digital twin 3D space.
삭제delete 제 1항에 있어서,
상기 아바타 시각화 처리부는,
상기 상태 분류 결과에 포함된 공간 상태 분류 결과 및 동작 상태 분류 결과를 각각 획득하는 분류 결과 획득 모듈;
상기 상태 분류 결과에 포함된 우선 순위를 확인하고, 상기 우선 순위에 따라 상기 아바타 시각화 조건을 설정하는 아바타 시각화 조건 설정 모듈; 및
상기 아바타 시각화 조건을 이용하여 상기 아바타에 대해 상기 레이어 처리 기법을 수행하고, 상기 레이어 처리 기법을 통해 상기 아바타의 시각화를 수행하는 아바타 시각화 수행 모듈;을 포함하며,
상기 레이어 처리 기법은, 상기 아바타를 기 설정된 부위 별로 독립 레이어에 시각화를 수행하고, 복수개의 상기 독립 레이어를 병합하여 하나의 상기 아바타를 생성하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템.
According to claim 1,
The avatar visualization processing unit,
a classification result acquisition module for obtaining a spatial state classification result and an action state classification result included in the state classification result, respectively;
an avatar visualization condition setting module that checks priorities included in the status classification result and sets the avatar visualization conditions according to the priorities; and
An avatar visualization execution module for performing the layer processing technique on the avatar using the avatar visualization condition and performing visualization of the avatar through the layer processing technique;
The layer processing technique is a digital twin avatar visualization system for each layer in a digital twin 3D space, in which the avatar is visualized on an independent layer for each predetermined part, and one avatar is created by merging a plurality of the independent layers.
제 8항에 있어서,
상기 아바타 시각화 조건은 공간 상태 별 시각화 조건, 이벤트 종류 별 시각화 조건 및 행동 종류 별 시각화 조건 중 적어도 하나를 포함하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템.
According to claim 8,
Wherein the avatar visualization condition includes at least one of a visualization condition for each space state, a visualization condition for each event type, and a visualization condition for each action type.
제 9항에 있어서,
상기 공간 상태 별 시각화 조건은, 야외 및 넓은 실내인 경우 전신 표현을 수행하며, 개별 실내 공간 및 좁은 실내 공간인 경우 기 설정된 부분만 표현하고,
상기 이벤트 종류별 시각화 조건은, 대외 활동 및 주도 활동 인 경우 전신 표현을 수행하며, 실습 활동인 경우 기 설정된 부분만 표현하며,
상기 행동 종류 별 시각화 조건은, 정지, 걷기 및 탑승 이동의 경우 전신 표현을 수행하며, 뛰기 및 제자리 행동인 경우 기 설정된 부분만 표현하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템.
According to claim 9,
The visualization condition for each space state is to express the whole body in the case of outdoor and large indoor spaces, and to express only predetermined parts in the case of individual indoor spaces and narrow indoor spaces,
The visualization condition for each type of event is to express the whole body in the case of an external activity and a leading activity, and to express only a predetermined part in the case of a practice activity,
The visualization condition for each type of action is a digital twin avatar visualization system for each layer in the digital twin 3D space that expresses the whole body in the case of stopping, walking, and riding, and expresses only a predetermined part in the case of running and standing.
제 8항에 있어서,
상기 아바타 시각화 수행 모듈은,
상기 아바타 시각화 조건을 획득하고, 상기 아바타 시각화 조건에서 표현하고자 하는 부위를 제외한 나머지 상기 독립 레이어를 제거하여 상기 아바타 시각화를 수행하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 시스템.
According to claim 8,
The avatar visualization performance module,
The avatar visualization system for each layer in the digital twin 3D space by obtaining the avatar visualization conditions and removing the remaining independent layers except for parts to be expressed in the avatar visualization conditions to perform the avatar visualization.
기본 정보 획득부를 통해 디지털 트윈 3D 공간에서 사용자의 아바타를 시각화 하기 위해 상기 사용자 아바타 및 상기 디지털 트윈 3D 공간에 대한 기본 정보를 획득하는 단계;
아바타 상태 분류부를 통해 상기 기본 정보를 이용하여 상기 아바타의 현재 상태를 확인하고 기 설정된 기준에 따라 상기 아바타의 상태 분류를 수행하는 단계; 및
아바타 시각화 처리부를 통해 상기 상태 분류 결과를 이용하여 상기 아바타의 시각화를 상기 아바타의 레이어 처리 기법을 통해 수행하는 단계;를 포함하고
상기 기본 정보는 상기 디지털 트윈 3D 공간에 대한 기본 정보인 공간 기본 정보 및 상기 사용자 아바타에 대한 기본 정보인 아바타 기본 정보를 포함하며,
상기 사용자의 아바타 및 상기 디지털 트윈 3D 공간에 대한 기본 정보를 획득하는 단계는, 상기 사용자의 아바타에 대한 행동 종류 및 상기 디지털 트윈 3D 공간에서의 상기 사용자의 시점에 따라 분류되며 1인칭 또는 3인칭 중 어느 하나인 시각화 종류를 포함하는 상기 아바타 기본 정보를 획득하는 단계;를 포함하며,
상기 아바타의 상태 분류를 수행하는 단계는,
상기 공간 기본 정보를 이용하여 상기 사용자의 아바타의 현재 상태 중 공간 상태를 분류하는 단계; 및 상기 아바타 기본 정보를 이용하여 상기 사용자의 아바타의 현재 상태 중 동작 상태를 분류하며, 설정된 우선순위에 따라 상기 아바타 기본 정보에 포함된 행동 종류 또는 시각화 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정하는 동작 상태를 분류하는 단계;를 포함하며,
상기 아바타 시각화 처리부를 통해, 이벤트 발생 시 해당 공간 내의 모든 아바타의 시야 범위를 각각 획득하며, 특정 아바타의 시야를 현재 사용자의 아바타가 방해하는 경우, 상기 특정 아바타의 시야에서 시야를 가리는 상기 현재 사용자의 아바타의 신체 부위를 레이어 처리를 통해 삭제하는 것을 특징으로 하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법.
obtaining basic information about the user's avatar and the digital twin 3D space in order to visualize the user's avatar in the digital twin 3D space through a basic information acquisition unit;
checking a current state of the avatar using the basic information through an avatar state classification unit and classifying the state of the avatar according to a predetermined criterion; and
Performing visualization of the avatar through the avatar layer processing technique using the status classification result through the avatar visualization processor; and
The basic information includes space basic information that is basic information about the digital twin 3D space and avatar basic information that is basic information about the user avatar,
The obtaining of basic information about the user's avatar and the digital twin 3D space is classified according to the type of action of the user's avatar and the user's point of view in the digital twin 3D space, and either first person or third person. Acquiring the avatar basic information including any one visualization type; includes,
The step of performing state classification of the avatar,
classifying a spatial state among current states of the user's avatar using the spatial basic information; and classifying motion states among the current states of the user's avatar using the avatar basic information, and setting one of a behavior type or a visualization type included in the avatar basic information according to a set priority as a priority classification criterion; Classifying an operating state for setting the other one as a sub-classification criterion; includes,
Through the avatar visualization processor, when an event occurs, the field of view of all avatars in the space is obtained, and when the current user's avatar obstructs the field of view of a specific avatar, the current user's field of view is blocked from the field of view of the specific avatar. An avatar visualization method for each layer in digital twin 3D space, characterized in that the body parts of the avatar are deleted through layer processing.
제 12항에 있어서,
상기 사용자 아바타 및 상기 디지털 트윈 3D 공간에 대한 기본 정보를 획득하는 단계는,
상기 디지털 트윈 3D 공간의 종류 및 상기 디지털 트윈 3D 공간에서 수행되는 이벤트 종류를 포함하는 상기 공간 기본 정보를 획득하는 단계; 및
상기 사용자 아바타에 대한 행동 종류 및 시각화 종류를 포함하는 상기 아바타 기본 정보를 획득하는 단계;를 포함하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법.
According to claim 12,
Obtaining basic information about the user avatar and the digital twin 3D space,
acquiring the space basic information including a type of the digital twin 3D space and a type of event performed in the digital twin 3D space; and
A method for visualizing an avatar for each layer on a digital twin 3D space, comprising: acquiring basic information of the avatar including a behavior type and a visualization type of the user avatar.
제 13항에 있어서,
상기 디지털 트윈 3D 공간의 종류는 기 설정된 공간 구분 기준에 따라 분류되며, 야외, 넓은 실내, 개별 실내 공간 및 좁은 실내 공간 중 적어도 하나로 표현되고,
상기 이벤트 종류는 기 설정된 이벤트 종류 구분 기준에 따라 분류되며, 대외 활동, 주도 활동 및 실습 활동 중 적어도 하나로 표현되는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법.
According to claim 13,
The type of the digital twin 3D space is classified according to a predetermined space classification criterion, and is expressed as at least one of outdoor, wide indoor, individual indoor space, and narrow indoor space,
The event type is classified according to a predetermined event type classification criterion, and the avatar visualization method for each layer in the digital twin 3D space expressed as at least one of external activities, leading activities, and practice activities.
제 13항에 있어서,
상기 행동 종류는 상기 아바타의 행동(동작)에 따라 분류되며, 정지, 걷기, 뛰기, 탑승 이동 및 제자리 행동 중 적어도 하나를 포함하며,
상기 시각화 종류는 상기 디지털 트윈 3D 공간에서의 상기 사용자의 시점에 따라 분류되며 1인칭 또는 3인칭 중 어느 하나인 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법.
According to claim 13,
The action type is classified according to the action (action) of the avatar, and includes at least one of stop, walk, run, boarding movement, and stationary action,
The visualization type is classified according to the user's viewpoint in the digital twin 3D space, and the avatar visualization method for each layer in the digital twin 3D space is either a first person or a third person.
삭제delete 제 12항에 있어서,
상기 공간 상태를 분류하는 단계는,
설정된 우선순위에 따라 상기 공간 기본 정보에 포함된 3D 공간의 종류 또는 이벤트 종류 중 어느 하나를 우선 분류 기준으로 설정하고, 하위 분류 기준으로 나머지 하나를 설정하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법.
According to claim 12,
Classifying the spatial state,
According to the set priority, one of the 3D space types or event types included in the space basic information is set as a priority classification criterion, and the other is set as a sub-classification criterion A method for visualizing avatars for each layer on a digital twin 3D space.
삭제delete 제 12항에 있어서,
상기 아바타의 시각화를 상기 아바타의 레이어 처리 기법을 통해 수행하는 단계는,
상기 상태 분류 결과에 포함된 공간 상태 분류 결과 및 동작 상태 분류 결과를 각각 획득하는 단계;
상기 상태 분류 결과에 포함된 우선 순위를 확인하고, 상기 우선 순위에 따라 상기 아바타 시각화 조건을 설정하는 단계; 및
상기 아바타 시각화 조건을 이용하여 상기 아바타에 대해 상기 레이어 처리 기법을 수행하고, 상기 레이어 처리 기법을 통해 상기 아바타의 시각화를 수행하는 단계;를 포함하며,
상기 레이어 처리 기법은, 상기 아바타를 기 설정된 부위 별로 독립 레이어에 시각화를 수행하고, 복수개의 상기 독립 레이어를 병합하여 하나의 상기 아바타를 생성하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법.
According to claim 12,
The step of performing visualization of the avatar through the layer processing technique of the avatar,
obtaining a spatial state classification result and an action state classification result included in the state classification result, respectively;
checking priorities included in the status classification result, and setting the avatar visualization conditions according to the priorities; and
Performing the layer processing technique on the avatar using the avatar visualization condition, and performing visualization of the avatar through the layer processing technique;
In the layer processing technique, the avatar is visualized on an independent layer for each predetermined region, and a plurality of independent layers are merged to generate one avatar.
제 19항에 있어서,
상기 아바타 시각화 조건은 공간 상태 별 시각화 조건, 이벤트 종류 별 시각화 조건 및 행동 종류 별 시각화 조건 중 적어도 하나를 포함하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법.
According to claim 19,
Wherein the avatar visualization condition includes at least one of a visualization condition for each spatial state, a visualization condition for each event type, and a visualization condition for each action type.
제 20항에 있어서,
상기 공간 상태 별 시각화 조건은, 야외 및 넓은 실내인 경우 전신 표현을 수행하며, 개별 실내 공간 및 좁은 실내 공간인 경우 기 설정된 부분만 표현하고,
상기 이벤트 종류별 시각화 조건은, 대외 활동 및 주도 활동 인 경우 전신 표현을 수행하며, 실습 활동인 경우 기 설정된 부분만 표현하며,
상기 행동 종류 별 시각화 조건은, 정지, 걷기 및 탑승 이동의 경우 전신 표현을 수행하며, 뛰기 및 제자리 행동인 경우 기 설정된 부분만 표현하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법.
21. The method of claim 20,
The visualization condition for each space state is to express the whole body in the case of outdoor and large indoor spaces, and to express only predetermined parts in the case of individual indoor spaces and narrow indoor spaces,
The visualization condition for each type of event is to express the whole body in the case of an external activity and a leading activity, and to express only a predetermined part in the case of a practice activity,
The visualization condition for each type of action is a method of visualizing avatars for each layer in the digital twin 3D space, in which the whole body is expressed in the case of stopping, walking, and riding, and only a predetermined part is expressed in the case of running and standing.
제 19항에 있어서,
상기 레이어 처리 기법을 통해 상기 아바타의 시각화를 수행하는 단계는,
상기 아바타 시각화 조건을 획득하고, 상기 아바타 시각화 조건에서 표현하고자 하는 부위를 제외한 나머지 상기 독립 레이어를 제거하여 상기 아바타 시각화를 수행하는 디지털 트윈 3D 공간상의 레이어 별 아바타 시각화 방법.
According to claim 19,
The step of performing visualization of the avatar through the layer processing technique,
Avatar visualization method for each layer in the digital twin 3D space by obtaining the avatar visualization conditions and removing the remaining independent layers except for a region to be expressed in the avatar visualization conditions to perform the avatar visualization.
KR1020220091060A 2022-07-22 2022-07-22 Layered avatar visualization system and method in digital twin 3D space KR102561202B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220091060A KR102561202B1 (en) 2022-07-22 2022-07-22 Layered avatar visualization system and method in digital twin 3D space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220091060A KR102561202B1 (en) 2022-07-22 2022-07-22 Layered avatar visualization system and method in digital twin 3D space

Publications (1)

Publication Number Publication Date
KR102561202B1 true KR102561202B1 (en) 2023-07-31

Family

ID=87458296

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220091060A KR102561202B1 (en) 2022-07-22 2022-07-22 Layered avatar visualization system and method in digital twin 3D space

Country Status (1)

Country Link
KR (1) KR102561202B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090058760A (en) * 2007-12-05 2009-06-10 에스케이커뮤니케이션즈 주식회사 Avatar presenting method and computer readable medium processing the method
KR20130087311A (en) * 2012-01-27 2013-08-06 엔에이치엔아츠(주) System and method for providing avatar in service provided in mobile environment
KR102394316B1 (en) * 2021-11-08 2022-05-04 주식회사 네오스펙트라 Method for implementing walking path network in virtual reality, server for providing virtual reality and computer program for the same
KR102420379B1 (en) 2021-09-14 2022-07-13 주식회사 오썸피아 Method for providing a service of metaverse based on meteorological environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090058760A (en) * 2007-12-05 2009-06-10 에스케이커뮤니케이션즈 주식회사 Avatar presenting method and computer readable medium processing the method
KR20130087311A (en) * 2012-01-27 2013-08-06 엔에이치엔아츠(주) System and method for providing avatar in service provided in mobile environment
KR102420379B1 (en) 2021-09-14 2022-07-13 주식회사 오썸피아 Method for providing a service of metaverse based on meteorological environment
KR102394316B1 (en) * 2021-11-08 2022-05-04 주식회사 네오스펙트라 Method for implementing walking path network in virtual reality, server for providing virtual reality and computer program for the same

Similar Documents

Publication Publication Date Title
Zielasko et al. Evaluation of hands-free HMD-based navigation techniques for immersive data analysis
JP7109408B2 (en) Wide range simultaneous remote digital presentation world
Sousa Santos et al. Head-mounted display versus desktop for 3D navigation in virtual reality: a user study
KR101855639B1 (en) Camera navigation for presentations
US8223147B1 (en) Method and system for vision-based interaction in a virtual environment
CN107694086B (en) Information processing method and device, storage medium, the electronic equipment of game system
Wingrave et al. Overcoming world in miniature limitations by a scaled and scrolling wim
Ren et al. 3d freehand gestural navigation for interactive public displays
Kim et al. A comparative study of navigation interfaces in virtual reality environments: A mixed-method approach
DE112018004313T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
CN107272884A (en) A kind of control method and its control system based on virtual reality technology
Stigall et al. Evaluation of mobile augmented reality application for building evacuation
Gunther et al. Using 3D sound as a navigational aid in virtual environments
JP2022544240A (en) Systems and methods for virtual and augmented reality
KR102561202B1 (en) Layered avatar visualization system and method in digital twin 3D space
Wienrich et al. User-centered extension of a locomotion typology: movement-related sensory feedback and spatial learning
KR102396832B1 (en) Virtual reality simulator and method for experience of aerodynamic environment in agricultural facilities
Garcia et al. Modifying a game interface to take advantage of advanced I/O devices
Zhang et al. Virtual Museum Scene Design Based on VRAR Realistic Interaction under PMC Artificial Intelligence Model
Jaksties et al. Magical Tower VR-Examining Orientation in Non-Euclidean Spaces
Gimeno et al. A reconfigurable immersive workbench and wall-system for designing and training in 3D environments
Bressler A virtual reality training tool for upper limp prostheses
Adamo-Villani et al. Travel in SMILE: A study of two immersive motion control techniques
dos Santos Amaro Navigation Techniques for Seated VR
KR20220072371A (en) Virtual reality simulator and method for experience of aerodynamic environment in pig house

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant