KR20230067307A - Method for moving in 3D modeling space using avatar - Google Patents
Method for moving in 3D modeling space using avatar Download PDFInfo
- Publication number
- KR20230067307A KR20230067307A KR1020210153265A KR20210153265A KR20230067307A KR 20230067307 A KR20230067307 A KR 20230067307A KR 1020210153265 A KR1020210153265 A KR 1020210153265A KR 20210153265 A KR20210153265 A KR 20210153265A KR 20230067307 A KR20230067307 A KR 20230067307A
- Authority
- KR
- South Korea
- Prior art keywords
- space
- moving
- avatar
- modeling space
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000013507 mapping Methods 0.000 claims abstract description 19
- 239000002131 composite material Substances 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 아바타를 이용한 3차원 모델링 공간의 이동 방법에 관한 것으로, 보다 구체적으로 3차원 아바타를 이용하여 가상의 3차원 모델링 공간 중 사용자가 이동하고자 하는 공간으로 3차원 아바타를 이동시킴으로써 사용자가 실제 3차원 공간을 이동하는 것과 동일한 현실감을 줄 수 있으며, 3차원 모델링 공간의 각 이동 경로를 다수의 단위 그리드로 분할하고 각 단위 그리드에 대한 파노라마 이미지를 이동경로를 촬영한 동영상에서 추출한 1개의 파노라마 이미지로 매핑 설정함으로써 3차원 아바타가 3차원 모델링 공간을 끊김없이 자연스럽게 이동할 수 있는 3차원 모델링 공간의 이동 방법에 관한 것이다. The present invention relates to a method for moving a 3D modeling space using an avatar, and more specifically, by using a 3D avatar to move a 3D avatar to a space where a user wants to move among a virtual 3D modeling space, the user moves in a real 3D modeling space. It can give the same sense of reality as moving in dimensional space, and each movement path in the 3D modeling space is divided into a number of unit grids, and a panoramic image for each unit grid is converted into one panoramic image extracted from a video of the movement path. A method for moving a 3D modeling space in which a 3D avatar can naturally move in the 3D modeling space without interruption by setting mapping.
공간에서 효과적으로 위치를 판단하며 이동하기 위해서 이동하고 있는 공간에 대한 지도를 생성하고 공간상의 자신의 위치를 인식하는 것이 요구된다. 주변 공간에 대하여 위치를 인식하고 지도를 형성하는 것을 동시 위치인식 및 지도형성(SLAM : Simultaneous Localization And Mapping)이라고 한다.In order to effectively determine a position in space and move, it is required to create a map of the space in which you are moving and to recognize your own position in space. Recognizing a location in the surrounding space and forming a map is called Simultaneous Localization And Mapping (SLAM).
SLAM은 공간에 위치하는 객체의 특징 데이터에 기반하여 3차원 지도를 생성하는데, 지도 생성에 사용되는 센서 유형에 따라 SLAM 알고리즘에 활용되는 특징 데이터도 다르다. 예컨대, 초음파(Sonar), 레이저와 같은 거리 센서를 통해 얻어진 거리 정보, GPS 기기를 통해 직접 얻어지는 좌표 정보, IMU장비를 통해 얻어지는 가속도 정보, 카메라의 영상 정보 등이 특징 데이터로 사용될 수 있다.SLAM creates a 3D map based on the feature data of objects located in space, and the feature data used in the SLAM algorithm is also different depending on the type of sensor used to create the map. For example, distance information obtained through a distance sensor such as ultrasound or laser, coordinate information obtained directly through a GPS device, acceleration information obtained through an IMU device, image information of a camera, and the like may be used as feature data.
카메라의 영상 정보를 이용한 SLAM 기법을 비주얼(Visual) SLAM이라고 하는데, 비주얼 SLAM은 영상에서 추출한 시각 특징점을 이용하여 주변 환경에 대한 3차원 지도를 생성하고, 생성한 3차원 지도에 기반하여 현재 위치를 추정한다. The SLAM technique using image information from the camera is called Visual SLAM. Visual SLAM creates a 3D map of the surrounding environment using visual feature points extracted from the video, and determines the current location based on the created 3D map. guess
도 1은 비주얼 SLAM 기법으로 3차원 지도를 생성하는 방법의 일 예를 도시하고 있다.1 illustrates an example of a method for generating a 3D map using a visual SLAM technique.
도 1을 참고로 보다 구체적으로 살펴보면, 지도를 생성하고자 하는 3차원 공간의 영상을 촬영하고 촬영한 영상에서 특징점을 추출한다(S10). 특징점을 추출하기 위하여 사람이 직접 웨어러블 영상 장비를 착용 후 3차원 공간을 돌아다니며 영상을 촬영하고 촬영한 영상에서 특징점을 추출할 수 있거나, 이동 로봇에 영상 촬영 장비를 설치하여 이동 로봇을 3차원 공간으로 이동시키며 영상을 촬영하고 촬영한 영상에서 특징점을 추출할 수 있다. Looking more specifically with reference to FIG. 1 , an image of a 3D space to be generated for a map is photographed and feature points are extracted from the photographed image (S10). In order to extract feature points, a person can directly wear wearable imaging equipment, move around the 3D space to take images, and extract feature points from the captured images, or install imaging equipment on a mobile robot to move the mobile robot into a 3D space. It is possible to capture an image and extract feature points from the captured image.
여기서 영상 장비는 모노 카메라, 스트레오 카메라, 깊이 카메라 또는 이들의 조합이 사용될 수 있다. 한편 카메라는 CCD(charge coupled device) 또는 CMOS(complementary metal oxide semiconductor) 이미지 센서와, 이미지 센서의 출력을 수신하여 2D 이미지를 생성하는 영상처리모듈 등을 구비하고 있다.Here, as the video equipment, a mono camera, a stereo camera, a depth camera, or a combination thereof may be used. Meanwhile, the camera includes a charge coupled device (CCD) or complementary metal oxide semiconductor (CMOS) image sensor, and an image processing module generating a 2D image by receiving an output of the image sensor.
특징점은 객체의 형상을 대표하는 요소로서 객체를 묘사하고 모델링할 수 있는 중요한 점이며, 명확하게 식별이 가능한 특이점(interest point)으로서 모서리(corner), 정점(apex) 및 꼭지점(vertex)이 특징점에 해당된다. 영상에서 특징점을 추출하는 방법은 CSS(Curvature Scale Space), FAST-ER(FAST-Enhanced Repeatability)등의 알고리즘을 사용하거나, Harris corner detection 기법을 사용하여 특정한 "점"을 추출하거나, Canny edgy detection 기법을 사용하여 특정한 "선"을 추출하는 것이 가능하다. 다양한 방식으로 특징점을 추출할 수 있으며 이에 대한 상세한 설명은 생략한다.As an element representing the shape of an object, a feature point is an important point that can describe and model an object, and as a clearly identifiable interest point, a corner, apex, and vertex are included in the feature point. applicable Methods for extracting feature points from images use algorithms such as Curvature Scale Space (CSS) and FAST-Enhanced Repeatability (FAST-ER), extract specific "points" using the Harris corner detection technique, or use the Canny edge detection technique. It is possible to extract specific "lines" using Feature points can be extracted in various ways, and a detailed description thereof will be omitted.
추출한 특징점은 2차원 상의 좌표로 표시되는데, 특징점의 깊이 정보를 구비하는 3차원 좌표로 변환하여 포인트 클라우드를 생성한다(S30). 촬영한 영상에서 깊이 정보를 획득하기 위하여 모노 카메라를 통해 촬영한 현재 영상 프레임을 기준으로 전/후 영상 프레임을 이용하여 깊이 정보를 획득하거나, 스트레오 카메라를 통해 촬영한 영상 프레임의 시차를 이용하여 깊이 정보를 획득하거나, 깊이 카메라를 이용하여 깊이 정보를 획득할 수 있다.The extracted feature points are displayed as 2-dimensional coordinates, and a point cloud is generated by converting the feature points into 3-dimensional coordinates having depth information (S30). In order to obtain depth information from the captured image, depth information is acquired using the previous/posterior image frame based on the current image frame captured through a mono camera, or depth information is obtained using the parallax of the image frame captured through a stereo camera. Information may be obtained or depth information may be obtained using a depth camera.
추출한 특징점은 3차원 공간에서 촬영한 영상에서 계속해서 추척되며, 3차원 공간 전체에 대한 포인트 클라우드를 조합하여(S50), 3차원 공간의 3차원 지도를 생성한다(S70). The extracted feature points are continuously tracked in the image taken in the 3D space, and a 3D map of the 3D space is created by combining point clouds for the entire 3D space (S50).
이와 같이 3차원 지도를 생성하는 경우, 도 2에 도시되어 있는 바와 같이 3차원 공간의 특정 위치에서 사진기 등의 촬영 장치를 이용하여 각각 파노라마 이미지를 촬영하고 촬영한 파노라마 이미지를 3차원 지도의 해당 위치에 매핑하여 실제 물리적 공간과 동일하게 가상의 3차원 모델링 공간을 구현할 수 있다.In the case of generating a 3D map in this way, as shown in FIG. 2, each panoramic image is captured using a photographing device such as a camera at a specific location in the 3D space, and the captured panoramic image is displayed at the corresponding location on the 3D map. It is possible to implement a virtual 3D modeling space identical to the actual physical space by mapping to .
이와 같이 구현된 3차원 모델링 공간을 사용자에 제공함으로써, 사용자는 실제 공간과 동일하게 구현된 가상의 3차원 모델링 공간을 이동하며 실제 공간에 대한 정보를 획득할 수 있다. By providing the 3D modeling space implemented as described above to the user, the user may acquire information about the real space while moving the virtual 3D modeling space implemented identically to the real space.
사용자는 이와 같이 구현된 3차원 모델링 공간을 이동하며 3차원 모델링 공간에서 정보를 획득하는데, 도 2에 도시되어 있는 바와 같이 3차원 모델링 공간에는 이동 방향을 나타내는 이동 지시자가 디스플레이되며 사용자는 원하는 방향의 이동 지시자를 선택하여 3차원 모델링 공간을 이동하기 때문에 3차원 모델링 공간을 이동하며 정보를 획득할 수 있어도 사용자 자신이 직접 3차원 모델링 공간을 이동하는 것과 같은 현실감이 떨어진다는 문제점을 가진다. The user moves in the 3D modeling space implemented as described above and acquires information in the 3D modeling space. As shown in FIG. Since the 3D modeling space is moved by selecting the movement indicator, even if information can be acquired while moving the 3D modeling space, the user himself has a problem in that the sense of reality is inferior to that of moving the 3D modeling space himself.
더욱이 종래 3차원 모델링 공간은 3차원 공간의 설정한 촬영 위치(1, 2, 3,...)에서 촬영장치를 이용하여 촬영한 파노라마 이미지를 3차원 지도의 동일한 위치에 매핑하여 생성하기 때문에, 사용자는 3차원 모델링 공간 중 파노라마 이미지의 촬영 위치 단위로, 예를 들어 촬영위치1에서 촬영위치2로 이동해가며 주변 공간을 조회할 수 있다. 따라서 파노라마 이미지의 촬영 위치 사이의 이격으로 인하여 3차원 모델링 공간을 사용자가 실제 이동하는 것과 같이 자연스럽게 이동하기 곤란하다는 문제점을 가진다. Moreover, since the conventional 3D modeling space is generated by mapping a panoramic image captured using a photographing device at a set photographing position (1, 2, 3, ...) in the 3D space to the same position on the 3D map, The user may search the surrounding space by moving from the capturing position 1 to the capturing position 2 in units of capturing positions of the panoramic image in the 3D modeling space, for example. Therefore, it is difficult for the user to move naturally in the 3D modeling space due to the distance between the photographing positions of the panoramic image, as if the user actually moves.
본 발명은 위에서 언급한 3차원 모델링 공간의 이동 방식이 가지는 문제점을 해결하기 위한 것으로, 본 발명이 이루고자 하는 목적은 3차원 아바타를 이용하여 3차원 모델링 공간 중 사용자가 이동하고자 하는 위치로 이동하여 사용자가 실제 3차원 모델링 공간을 이동하는 것과 동일한 현실감을 줄 수 있는 3차원 모델링 공간의 이동 방법을 제공하는 것이다. The present invention is to solve the problem of the movement method of the 3D modeling space mentioned above, and the object to be achieved by the present invention is to move the user to a position in the 3D modeling space where the user wants to move using a 3D avatar. To provide a method for moving a 3D modeling space that can give the same sense of reality as moving an actual 3D modeling space.
본 발명이 이루고자 하는 다른 목적은 본 발명이 이루고자 하는 목적은 3차원 모델링 공간의 각 이동 경로를 다수의 단위 그리드로 분할하고 이동 경로를 촬영한 동영상(여기서 동영상은 이동 경로를 따라 동일한 속도와 동일한 촬영 위치로 촬영됨)으로부터 추출한 파노라마 이미지를 각 단위 그리드에 대한 파노라마 이미지로 매핑 설정하여 3차원 아바타가 3차원 공간을 자연스럽게 이동하는 것과 같이 구현할 수 있는 3차원 모델링 공간의 이동 방법을 제공하는 것이다. Another object to be achieved by the present invention is to divide each movement path in the 3D modeling space into a plurality of unit grids and capture a video of the movement path (where the video is taken along the movement path at the same speed and at the same speed). It is to provide a method for moving a 3D modeling space that can be implemented like a 3D avatar naturally moving in a 3D space by mapping the panoramic image extracted from a location) to a panoramic image for each unit grid.
본 발명의 목적을 달성하기 위하여, 본 발명에 따른 3차원 모델링 공간의 이동 방법은 3차원 모델링 공간을 자유 이동하는 3차원 아바타가 3차원 모델링 공간 중 현재 위치하고 있는 현재 위치 정보를 판단하는 단계와, 3차원 공간에 대한 다수의 파노라마 이미지 중 현재 위치 정보에 매핑된 현재 파노라마 이미지를 판단하는 단계와, 3차원 아바타와 현재 파노라마 이미지로 이루어진 합성 이미지를 출력하는 단계를 포함하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the object of the present invention, a method for moving a 3D modeling space according to the present invention includes the steps of determining current location information in which a 3D avatar freely moving in a 3D modeling space is currently located in a 3D modeling space; A step comprising determining a current panoramic image mapped to the current location information among a plurality of panoramic images of a 3D space, and outputting a composite image composed of the 3D avatar and the current panoramic image. do.
바람직하게 본 발명에 따른 3차원 모델링 공간은 3차원 아바타가 이동할 수 있는 이동 경로를 따라 다수의 단위 그리드로 구분되어 있으며, 본 발명에 따른 3차원 모델링 공간의 이동 방법은 다수의 단위 그리드 중 3차원 아바타가 위치하는 현재 단위 그리드를 판단하는 단계를 더 포함하고, 현재 단위 그리드를 3차원 아바타의 현재 위치 정보로 판단하는 것을 특징으로 한다.Preferably, the 3D modeling space according to the present invention is divided into a plurality of unit grids along a movement path along which the 3D avatar can move, and the moving method of the 3D modeling space according to the present invention is a 3D modeling space among the plurality of unit grids. A step of determining a current unit grid where the avatar is located is further included, and the current unit grid is determined as current location information of the 3D avatar.
바람직하게, 본 발명에 따른 3차원 모델링 공간의 이동 방법은 현재 단위 그리드에 인접한 다수의 예비 다음 단위 그리드 중 입력된 3차원 아바타의 이동 정보에 기초하여 3차원 아바타가 위치하는 다음 단위 그리드를 다음 위치 정보로 판단하는 단계와, 다음 단위 그리드에 매핑된 다음 파노라마 이미지를 판단하는 단계와, 이동 정보에 상응하도록 3차원 아바타와 다음 파노라마 이미지로 이루어진 다음 합성 이미지를 출력하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the method of moving the 3D modeling space according to the present invention moves the next unit grid where the 3D avatar is located to the next position based on input movement information of the 3D avatar among a plurality of preliminary next unit grids adjacent to the current unit grid. Further comprising the step of determining with information, the step of determining the next panoramic image mapped to the next unit grid, and the step of outputting the next synthesized image consisting of the 3D avatar and the next panoramic image to correspond to the movement information. do.
여기서 3차원 공간에 대한 다수의 파노라마 이미지는 동일한 높이와 동일한 속도로 촬영 장비를 이동시키며 3차원 공간을 촬영한 동영상에서 추출되는 것을 특징으로 한다.Here, the plurality of panoramic images of the 3D space are characterized in that they are extracted from a moving picture of the 3D space while moving the photographing equipment at the same height and the same speed.
본 발명에 따른 3차원 모델링 공간의 이동 방법에서 3차원 아바타는 입력된 사용자 명령에 따라 3차원 모델링 공간을 단위 그리드 간격으로 이동하는 것을 특징으로 한다. In the method for moving a 3D modeling space according to the present invention, the 3D avatar moves in the 3D modeling space at unit grid intervals according to an input user command.
바람직하게, 현재 위치 정보에 매핑된 현재 파노라마 이미지는 3차원 공간에서 제1 이동 경로를 구성하는 다수의 단위 그리드의 수를 판단하는 단계와, 제1 이동 경로를 따라 촬영한 동영상을 구성하는 파노라마 이미지를 단위 그리드의 수로 나누어 각 단위 그리드별 할당된 파노라마 이미지로 구분하는 단계와, 단위 그리드별 할당된 파노라마 이미지 중 1개의 파노라마 이미지를 해당 단위 그리드에 대한 파노라마 이미지로 설정하는 단계를 통해 매핑되는 것을 특징으로 한다.Preferably, the current panoramic image mapped to the current location information includes the step of determining the number of unit grids constituting the first movement route in the 3D space, and the panoramic image constituting the moving image captured along the first movement route. is divided by the number of unit grids to be divided into panoramic images allocated for each unit grid, and mapping is performed through the step of setting one panoramic image among the allocated panoramic images for each unit grid as a panoramic image for the corresponding unit grid. to be
여기서 단위 그리드별 할당된 파노라마 이미지 중 일정한 간격으로 이격된 1개의 파노라마 이미지를 단위 그리드에 매핑된 파노라마 이미지로 설정하는 것을 특징으로 하는 3차원 모데링 공간의 이동 방법. Here, a method of moving a three-dimensional modeling space, characterized in that one panoramic image spaced apart at a regular interval among the panoramic images allocated for each unit grid is set as a panoramic image mapped to the unit grid.
본 발명에 따른 3차원 모델링 공간의 이동 방법은 3차원 아바타를 이용하여 3차원 모델링 공간 중 사용자가 이동하고자 하는 공간으로 3차원 아바타를 이동시킴으로써, 사용자가 실제 3차원 모델링 공간을 이동하는 것과 동일한 현실감을 줄 수 있다.A method of moving a 3D modeling space according to the present invention moves a 3D avatar to a space where a user wants to move among a 3D modeling space using a 3D avatar, thereby providing the same sense of reality as when a user actually moves in a 3D modeling space. can give
한편 본 발명에 따른 3차원 모델링 공간의 이동 방법은 3차원 공간의 각 이동 경로를 다수의 단위 그리드로 분할하여 각 단위 그리드별로 촬영한 동영상 중 1개의 파노라마 이미지를 매핑 설정함으로써, 3차원 아바타가 3차원 모델링 공간을 자연스럽게 이동하는 것으로 구현할 수 있다. On the other hand, in the moving method of the 3D modeling space according to the present invention, each movement path in the 3D space is divided into a plurality of unit grids, and one panoramic image of the video taken for each unit grid is mapped and set. It can be implemented by moving naturally through the dimensional modeling space.
도 1은 비주얼 SLAM 기법으로 3차원 지도를 생성하는 방법의 일 예를 도시하고 있다.
도 2는 종래 3차원 모델링 공간에서 이동 방법을 설명하기 위한 도면이다.
도 3은 본 발명에 따라 3차원 모델링 공간에서 아바타를 이동시키는 장치를 설명하기 위한 기능 블록도이다.
도 4는 본 발명에 따른 이미지 매핑부의 일 예를 설명하기 위한 기능 블록도이다.
도 5는 촬영 장치를 이용하여 동영상을 촬영하는 일 예를 설명하기 위한 도면이다.
도 6은 본 발명에서 3차원 공간의 이동 경로를 촬영한 동영상의 일 예를 설명하기 위한 도면이다.
도 7은 서로 다른 이동 해상도로 3차원 모델링 공간을 구현하는 일 예를 설명하기 위한 도면이다.
도 8은 본 발명에 따라 3차원 모델링 공간에서 아바타를 이동시키는 방법을 설명하기 위한 흐름도이다.
도 9는 3차원 지도에서 단위 그리드로 구분된 이동 경로를 따라 이동하는 3차원 아바타를 도시하고 있다.
도 10은 3차원 아바타가 이동할 수 있는 예비 다음 단위 그리드의 일 예를 도시하고 있다.1 illustrates an example of a method for generating a 3D map using a visual SLAM technique.
2 is a diagram for explaining a movement method in a conventional 3D modeling space.
3 is a functional block diagram for explaining an apparatus for moving an avatar in a 3D modeling space according to the present invention.
4 is a functional block diagram for explaining an example of an image mapping unit according to the present invention.
5 is a diagram for explaining an example of capturing a video using a photographing device.
6 is a diagram for explaining an example of a video in which a moving path in a 3D space is captured in the present invention.
7 is a diagram for explaining an example of implementing a 3D modeling space with different movement resolutions.
8 is a flowchart illustrating a method of moving an avatar in a 3D modeling space according to the present invention.
9 illustrates a 3D avatar moving along a movement path divided into unit grids on a 3D map.
10 illustrates an example of a preliminary next unit grid in which a 3D avatar can move.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다.It should be noted that technical terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in the present invention should be interpreted in terms commonly understood by those of ordinary skill in the art to which the present invention belongs, unless specifically defined otherwise in the present invention, and are excessively inclusive. It should not be interpreted in a positive sense or in an excessively reduced sense. In addition, when the technical terms used in the present invention are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that those skilled in the art can correctly understand.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various elements or steps described in the invention, and some of the elements or steps are included. It should be construed that it may not be, or may further include additional components or steps.
또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니됨을 유의해야 한다.In addition, it should be noted that the accompanying drawings are only for the purpose of easily understanding the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.
도 3은 본 발명에 따라 3차원 모델링 공간에서 아바타를 이동시키는 장치를 설명하기 위한 기능 블록도이다.3 is a functional block diagram for explaining an apparatus for moving an avatar in a 3D modeling space according to the present invention.
도 3을 참고로 보다 구체적으로 살펴보면, 위치 정보 판단부(110)는 3차원 모델링 공간에서 3차원 아바타가 현재 위치하고 있는 현재 단위 그리드에 기초하여 현재 위치 정보를 판단한다. 여기서 3차원 모델링 공간에는 3차원 아바타가 이동할 수 있는 다수의 이동 경로가 존재하며, 각 이동 경로는 다수의 단위 그리드로 구분되어 있다.Looking more specifically with reference to FIG. 3 , the
이미지 판단부(130)는 3차원 아바타의 현재 위치 정보에 기초하여 현재 위치 정보에 해당하는 현재 단위 그리드에 매핑되어 있는 현재 파노라마 이미지를 저장부(150)로부터 추출하며, 이미지 생성부(170)는 추출한 현재 파노라마 이미지와 3차원 아바타 이미지로부터 3차원 모델링 공간 중 3차원 아바타가 현재 위치하고 있는 공간에 대한 합성 이미지를 생성한다. 여기서 저장부(150)에는 3차원 공간의 이동 경로를 동일한 속도와 동일한 촬영 각도로 촬영한 동영상으로부터 추출한, 이동 경로를 구성하는 각 단위 그리드에 매핑 설정되어 있는 파노라마 이미지가 저장되어 있다.The
한편, 3차원 아바타를 이동시키기 위한 사용자의 이동 명령이 입력되는 경우, 위치 정보 판단부(110)는 현재 단위 그리드에 인접한 다수의 예비 다음 단위 그리드 중 입력된 아바타의 이동 명령에 기초하여 3차원 아바타가 위치하는 다음 단위 그리드를 다음 위치 정보로 판단한다. 도 10에 도시되어 있는 바와 같이 3차원 모델링 공간에서 3차원 아바타가 이동할 수 있는, 현재 단위 그리드에 인접한 다수의 예비 다음 단위 그리드가 존재하는데 입력된 사용자의 이동 명령에 따라 다수의 예비 다음 단위 그리드 중 현대 단위 그리드로부터 연속하여 이동할 다음 단위 그리드를 결정할 수 있다.On the other hand, when a user's movement command for moving the 3D avatar is input, the location
다음 위치 정보가 판단되는 경우 앞서 설명한 방식과 동일하게 이미지 판단부(130)는 3차원 아바타의 다음 위치 정보에 기초하여 다음 위치 정보에 해당하는 다음 단위 그리드에 매핑되어 있는 다음 파노라마 이미지를 저장부(150)로부터 추출하며, 이미지 생성부(170)는 추출한 다음 파노라마 이미지와 3차원 아바타 이미지로부터 3차원 모델링 공간 중 3차원 아바타가 위치하고 있는 공간에 대한 다음 합성 이미지를 생성한다.When the next location information is determined, the
사용자의 이동 명령에 따라 3차원 아바타가 이동하는 경로에서 연속하여 합성 이미지가 생성되며, 출력 제어부(190)는 연속하여 생성된 합성 이미지를 사용자 단말기의 디스플레이에 출력 제어한다.According to the user's movement command, synthesized images are continuously generated along the path along which the 3D avatar moves, and the
여기서 이미지 매핑부(140)는 3차원 공간의 이동경로를 촬영한 동영상으로부터 3차원 모델링 공간의 각 단위 그리드에 대한 파노라마 이미지를 추출하여 매핑 설정하는데, 이미지 매핑부(140)는 각 단위 그리드에 매핑 설정된 파노라마 이미지를 저장부(150)에 저장한다. 이와 같이 이동경로를 구성하는 단위 그리드에 대한 파노라마 이미지를 촬영한 동영상으로부터 추출하고 추출한 파노라마 이미지를 단위 그리드에 매핑 설정하여 저장부(150)에 저장해둠으로써, 3차원 아바타가 이동할 때마다 3차원 아바타가 위치하는 단위 그리드에 대한 파노라마 이미지를 직접 동영상에서 추출하는 것보다 적은 프로세스로 빠르게 처리할 수 있다. Here, the
도 4는 본 발명에 따른 이미지 매핑부의 일 예를 설명하기 위한 기능 블록도이다.4 is a functional block diagram for explaining an example of an image mapping unit according to the present invention.
도 4를 참고로 보다 구체적으로 살펴보면, 그리드 분할부(210)는 3차원 공간의 이동 경로를 입력된 전체 단위 그리드 수에 따라 분할한다.Looking more specifically with reference to FIG. 4 , the
이미지 할당부(230)는 이동 경로를 구성하는 전체 단위 그리드의 수에 따라 동영상을 구성하는 파노라마 이미지를 각 단위 그리드에 해당하는 파노라마 이미지로 구분하여 할당한다. 여기서 3차원 공간의 이동 경로를 동일한 속도와 동일한 촬영 각도로 촬영하여 동영상을 생성한다. 예를 들어 이동경로를 구성하는 전체 단위 그리드의 수가 10개이며 해당 이동경로를 촬영한 동영상이 1000개의 파노라마 이미지로 구성되어 있는 경우 연속한 100개씩의 파노라마 이미지를 각 단위 그리드에 해당하는 파노라마 이미지로 구분하여 할당한다.The
이미지 설정부(250)는 각 단위 그리드에 할당된 파노라마 이미지 중 1개의 파노라마 이미지를 각 단위 그리드에 대한 파노라마 이미지로 매핑하여 설정한다. 여기서 이미지 설정부(250)에서 단위 그리드에 대한 파노라마 이미지를 매핑 설정하는 일 예로, 이미지 설정부(250)는 각 단위 그리드에 할당된 파노라마 이미지 중 1개의 파노라마 이미지를 임의적으로 선택하여 해당 단위 그리드에 대한 파노라마 이미지로 매핑하여 설정할 수 있다. The
이미지 설정부(250)에서 단위 그리드에 대한 파노라마 이미지를 매핑 설정하는 다른 예로, 이미지 설정부(250)는 각 단위 그리드에 할당된 파노라마 이미지 중 동일한 이격 간격으로 이격된 파노라마 이미지를 해당 단위 그리드에 대한 파노라마 이미지로 매핑하여 설정할 수 있다. 예를 들어 각 단위 그리드에 100개의 파노라마 이미지가 할당되는 경우 각 단위 그리드에 할당된 파노라마 이미지 중 50번째 파노라마 이미지를 해당 단위 그리드에 대한 파노라마 이미지로 매핑하여 설정할 수 있다.As another example of mapping the panoramic image to the unit grid in the
여기서 도 5에 도시되어 있는 촬영 장치(1)를 이용하여 3차원 공간의 이동 경로를 동일한 속도로 이동하며 동일한 촬영 각도로 동영상을 촬영하는데, 이와 같이 촬영한 동영상으로부터 추출한 파노라마 이미지로부터 3차원 모델링 공간에 대한 합성 이미지를 생성함으로써 3차원 아바타의 이동에 따라 자연스러운 3차원 모델링 공간을 구현할 수 있다. Here, a moving path in the 3D space is moved at the same speed using the photographing device 1 shown in FIG. 5 and a video is taken at the same shooting angle. A natural 3D modeling space can be implemented according to the movement of the 3D avatar by generating a composite image for .
또한 동일한 속도로 이동하며 동영상을 촬영하고 동영상을 구성하는 파노라마 이미지를 입력된 이동 경로의 전체 단위 그리드의 수로 나누어 각 단위 그리드에 해당하는 파노라마 이미지로 구분하여 할당하며 할당된 파노라마 이미지 중 1개의 파노라마 이미지를 단위 그리드에 매핑 설정함으로써, 3차원 모델링 공간을 서로 다른 이동 해상도로 용이하게 변경할 수 있다. 즉 이동 경로를 구성하는 전체 단위 그리드의 수를 작게 설정하는 경우 낮은 이동 해상도의 3차원 모델링 공간으로 구현할 수 있으며, 이동 경로를 구성하는 전체 단위 그리드의 수를 크게 설정하는 경우 높은 이동 해상도의 3차원 모델링 공간으로 구현할 수 있다. In addition, a video is taken while moving at the same speed, and the panoramic image constituting the video is divided by the total number of unit grids of the input movement route, divided into panoramic images corresponding to each unit grid, and allocated, and one panoramic image among the allocated panoramic images By setting the mapping to the unit grid, the 3D modeling space can be easily changed to different movement resolutions. That is, if the total number of unit grids constituting the movement path is set small, it can be implemented as a 3D modeling space with low movement resolution, and if the total number of unit grids constituting the movement path is set large, 3D modeling space with high movement resolution It can be implemented as a modeling space.
이와 같이 이동 해상도를 용이하게 변경함으로써 3차원 모델링 공간이 사용되는 용도에 따라 또는 3차원 모델링 공간을 구현하는 인프라에 따라 상이하게 3차원 모델링 공간을 구현할 수 있다. By easily changing the movement resolution in this way, the 3D modeling space can be differently implemented according to the purpose for which the 3D modeling space is used or the infrastructure for implementing the 3D modeling space.
도 6은 본 발명에서 3차원 공간의 이동 경로를 촬영한 동영상의 일 예를 설명하기 위한 도면이다.6 is a diagram for explaining an example of a video in which a moving path in a 3D space is captured in the present invention.
도 6을 참고로 살펴보면, 촬영 장치(1)는 3차원 공간의 각 이동 경로를 동일한 속도와 동일한 촬영 각도로 이동하며 동영상을 촬영한다. 각 이동 경로를 촬영할 때마다 각 이동경로에 대한 동영상(A파일, B파일,...., L파일)을 생성한다. 여기서 촬영 장치는 동일한 속도로 이동하며 이동경로를 촬영하기 때문에, 단위 시간당 동일한 수의 파노라마 이미지 프레임을 구비하고 있다.Referring to FIG. 6 , the photographing device 1 captures a video while moving each movement path in a 3D space at the same speed and the same photographing angle. Whenever each moving route is taken, a video (A file, B file, ..., L file) for each moving route is created. Here, since the photographing device moves at the same speed and captures the moving path, it has the same number of panoramic image frames per unit time.
도 7은 서로 다른 이동 해상도로 3차원 모델링 공간을 구현하는 일 예를 설명하기 위한 도면이다. 7 is a diagram for explaining an example of implementing a 3D modeling space with different movement resolutions.
3차원 모델링 공간의 사용 용도에 따라 또는 3차원 모델링 공간을 구현하는 인프라, 예를 들어 하드웨어의 성능 등에 따라3차원 모델링 공간은 서로 상이한 이동 해상도로 구현될 수 있는데, 이동 경로(P)를 구성하는 전체 단위 그리드의 수를 서로 상이하게 설정하는 경우 전체 단위 그리스의 수에 3차원 모델링 공간을 서로 상이한 이동 해상도로 구현할 수 있다. The 3D modeling space may be implemented with different movement resolutions depending on the purpose of use of the 3D modeling space or the performance of the infrastructure that implements the 3D modeling space, for example, hardware. When the total number of unit grids is set to be different from each other, the 3D modeling space can be implemented with different movement resolutions for the total number of unit greases.
즉 3차원 모델링 공간을 낮은 이동 해상도로 구현하고자 하는 경우, 도 7(a)와 같이 이동 경로(P)를 구성하는 전체 단위 그리드의 수를 5개로 설정하여 이동 경로를 촬영한 동영상의 파노라마 이미지를 각 단위 그리드로 분할하여 할당하고 할당한 파노라마 이미지 중 1개의 파노라마 이미지를 단위 그리드에 대한 파노라마 이미지(F1, F201, F401, F601, F801)로 매핑하여 설정한다.That is, in the case of implementing a 3D modeling space with a low movement resolution, as shown in FIG. Each unit grid is divided and allocated, and one of the allocated panoramic images is mapped to a panoramic image (F1, F201, F401, F601, F801) for the unit grid and set.
한편 3차원 모델링 공간을 높은 이동 해상도로 구현하고자 하는 경우, 도 7(c)와 같이 이동 경로(P)를 구성하는 전체 단위 그리드의 수를 20개로 설정하여 이동 경로를 촬영한 동영상의 파노라마 이미지를 각 단위 그리드로 분할하여 할당하고 할당한 파노라마 이미지 중 1개의 파노라마 이미지를 단위 그리드에 대한 파노라마 이미지(F1, F51, F101,....F901, F951)로 매핑하여 설정한다.On the other hand, if you want to implement a 3D modeling space with high movement resolution, set the total number of unit grids constituting the movement path (P) to 20 as shown in FIG. Each unit grid is divided and allocated, and one of the allocated panoramic images is mapped to a panoramic image (F1, F51, F101, .... F901, F951) for the unit grid and set.
3차원 아바타는 3차원 모델링 공간을 단위 그리드로 이동하는데, 낮은 이동 해상도로 3차원 모델링 공간을 구현하는 경우보다 높은 이동 해상도로 3차원 모델링 공간을 구현하는 경우 3차원 아바타는 3차원 모델링 공간을 보다 자연스럽게 이동할 수 있다.The 3D avatar moves the 3D modeling space as a unit grid. When the 3D modeling space is implemented with a higher movement resolution than when the 3D modeling space is implemented with a lower movement resolution, the 3D avatar moves the 3D modeling space with a higher movement resolution. You can move naturally.
도 8은 본 발명에 따라 3차원 모델링 공간에서 아바타를 이동시키는 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a method of moving an avatar in a 3D modeling space according to the present invention.
도 8을 참고로 보다 구체적으로 살펴보면, 3차원 아바타가 3차원 모델링 공간에서 현재 위치하고 있는 현재 위치 정보를 판단한다(S110). 3차원 모델링 공간은 다수의 단위 그리드로 구분되어 있는데, 3차원 모델링 공간 중 3차원 아바타가 위치하고 있는 현재 단위 그리드를 3차원 아바타의 현재 위치 정보로 판단한다.Looking more specifically with reference to FIG. 8 , the current location information of the 3D avatar currently located in the 3D modeling space is determined (S110). The 3D modeling space is divided into a plurality of unit grids, and the current unit grid where the 3D avatar is located in the 3D modeling space is determined as the current location information of the 3D avatar.
판단한 현재 위치 정보의 현재 단위 그리드에 매핑 설정되어 있는 현재 파노라마 이미지를 판단한다(S130).A current panoramic image mapped to the current unit grid of the determined current location information is determined (S130).
현재 파노라마 이미지와 3차원 아바타로 이루어진 합성 이미지를 생성하고 생성한 합성 이미지를 사용자 단말기의 디스플레이부에 디스플레이한다(S150).A synthesized image composed of the current panoramic image and the 3D avatar is generated and the generated synthesized image is displayed on the display unit of the user terminal (S150).
사용자 단말기로부터 이동 명령을 수신하는지 판단하며(S170), 이동 명령을 수신하는 경우 이동 명령에 따라 현재 단위 그리드에 인접한 다수의 예비 다음 단위 그리드 중 3차원 아바타가 위치하는 다음 단위 그리드를 다음 위치 정보로 판단하여 다음 단위 그리드에 매핑 설정된 다음 단위 그리드와 3차원 아바타로 이루어진 다음 합성 이미지를 사용자 단말기의 디스플레이부에 디스플레이한다(S190).It is determined whether a movement command is received from the user terminal (S170). If the movement command is received, the next unit grid in which the 3D avatar is located among a plurality of preliminary next unit grids adjacent to the current unit grid is determined as the next location information according to the movement command. After determining, the next synthesized image composed of the next unit grid and the 3D avatar, which is set to be mapped to the next unit grid, is displayed on the display unit of the user terminal (S190).
도 9는 3차원 지도에서 단위 그리드로 구분된 이동 경로를 따라 이동하는 3차원 아바타를 도시하고 있다.9 illustrates a 3D avatar moving along a movement path divided into unit grids on a 3D map.
도 9(a)에 도시되어 있는 바와 같이 3차원 지도에서 3차원 아바타의 이동 경로는 다수의 단위 그리드로 구분되어 있다.As shown in FIG. 9(a), the movement path of the 3D avatar on the 3D map is divided into a plurality of unit grids.
도 9(b)에 도시되어 있는 바와 같이, 각 단위 그리드에는 단위 그리드에 대한 파노라마 이미지가 매핑 설정되어 있는데, 3차원 아바타가 사용자의 이동 명령에 따라 단위 그리드를 이동하는 경우 3차원 아바타가 현재 위치하는 단위 그리드에 매핑 설정된 파노라마 이미지가 3차원 아바타와 함께 디스플레이된다.As shown in FIG. 9(b), each unit grid has a panoramic image mapped to the unit grid. When the 3D avatar moves the unit grid according to the user's movement command, the 3D avatar moves to the current position. A panoramic image mapped to the unit grid to be displayed is displayed together with the 3D avatar.
한편, 상술한 본 발명의 실시 예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.On the other hand, the above-described embodiments of the present invention can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.
상기 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예를 들어, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장 매체를 포함한다.The computer-readable recording medium includes a magnetic storage medium (eg, ROM, floppy disk, hard disk, etc.), an optical reading medium (eg, CD-ROM, DVD, etc.), and a carrier wave (eg, Internet transmission through).
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다. Although the present invention has been described with reference to the embodiments shown in the drawings, this is only exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached claims.
1: 촬영 장치
110: 위치 정보 판단부
130: 이미지 판단부
140: 이미지 매핑부
150: 저장부
170: 이미지 생성부
190: 출력 제어부
210: 그리드 분할부
230: 이미지 할당부
250: 이미지 설정부1: photographing device 110: location information determining unit
130: image determination unit 140: image mapping unit
150: storage unit 170: image generation unit
190: output control unit 210: grid division unit
230: image allocation unit 250: image setting unit
Claims (7)
3차원 모델링 공간을 자유 이동하는 3차원 아바타가 상기 3차원 모델링 공간 중 현재 위치하고 있는 현재 위치 정보를 판단하는 단계;
3차원 공간에 대한 다수의 파노라마 이미지 중 상기 현재 위치 정보에 매핑된 현재 파노라마 이미지를 판단하는 단계; 및
상기 3차원 아바타와 상기 현재 파노라마 이미지로 이루어진 현재 합성 이미지를 출력하는 단계를 포함하는 단계를 포함하는 것을 특징으로 하는 3차원 모델링 공간의 이동 방법.
A method for moving a 3D modeling space to which a panoramic image is mapped,
determining current location information of a 3D avatar freely moving in a 3D modeling space and currently located in the 3D modeling space;
determining a current panoramic image mapped to the current location information among a plurality of panoramic images of a 3D space; and
and outputting a current composite image composed of the 3D avatar and the current panoramic image.
상기 3차원 모델링 공간은 상기 3차원 아바타가 이동할 수 있는 이동 경로를 따라 다수의 단위 그리드로 구분되어 있으며,
상기 3차원 모델링 공간의 이동 방법은
상기 다수의 단위 그리드 중 상기 3차원 아바타가 위치하는 현재 단위 그리드를 판단하는 단계를 더 포함하며,
상기 현재 단위 그리드를 상기 3차원 아바타의 현재 위치 정보로 판단하는 것을 특징으로 하는 3차원 모델링 공간의 이동 방법.
According to claim 1,
The 3D modeling space is divided into a plurality of unit grids along a movement path along which the 3D avatar can move,
The method of moving the 3D modeling space
Further comprising determining a current unit grid in which the 3D avatar is located among the plurality of unit grids;
A method of moving a 3D modeling space, characterized in that the current unit grid is determined as the current location information of the 3D avatar.
상기 현재 단위 그리드에 인접한 다수의 예비 다음 단위 그리드 중 입력된 상기 3차원 아바타의 이동 정보에 기초하여 상기 3차원 아바타가 위치하는 다음 단위 그리드를 다음 위치 정보로 판단하는 단계;
상기 다음 단위 그리드에 매핑된 다음 파노라마 이미지를 판단하는 단계; 및
상기 이동 정보에 상응하도록 상기 3차원 아바타와 상기 다음 파노라마 이미지로 이루어진 다음 합성 이미지를 출력하는 단계를 더 포함하는 것을 특징으로 하는 3차원 모델링 공간의 이동 방법.
The method of claim 2, wherein the method of moving the 3D modeling space
determining a next unit grid in which the 3D avatar is located as next location information based on movement information of the 3D avatar among a plurality of preliminary next unit grids adjacent to the current unit grid;
determining a next panoramic image mapped to the next unit grid; and
and outputting a next synthesized image composed of the 3D avatar and the next panoramic image to correspond to the movement information.
3차원 공간에 대한 다수의 파노라마 이미지는 동일한 높이와 동일한 속도로 촬영 장비를 이동시키며 상기 3차원 공간을 촬영한 동영상에서 추출되는 것을 특징으로 하는 3차원 모델링 공간의 이동 방법.
According to claim 3,
A method of moving a 3D modeling space, characterized in that a plurality of panoramic images of the 3D space are extracted from a video taken in the 3D space while moving the shooting equipment at the same height and the same speed.
상기 3차원 아바타는 입력된 사용자 명령에 따라 상기 3차원 모델링 공간을 상기 단위 그리드 간격으로 이동하는 것을 특징으로 하는 3차원 모델링 공간의 이동 방법.
The method of claim 4, in the movement method of the 3D modeling space
The method of moving the 3D modeling space, characterized in that the 3D avatar moves the 3D modeling space at the unit grid interval according to an input user command.
상기 3차원 공간에서 제1 이동 경로를 구성하는 다수의 단위 그리드의 수를 판단하는 단계;
상기 제1 이동 경로를 따라 촬영한 동영상을 구성하는 파노라마 이미지를 상기 단위 그리드의 수로 나누어 각 단위 그리드별 할당된 파노라마 이미지로 구분하는 단계; 및
단위 그리드별 할당된 파노라마 이미지 중 1개의 파노라마 이미지를 해당 단위 그리드에 대한 파노라마 이미지로 설정하는 단계를 통해 매핑되는 것을 특징으로 하는 3차원 모델링 공간의 이동 방법.
The method of claim 4, wherein the current panoramic image mapped to the current location information is
determining the number of unit grids constituting a first movement path in the 3D space;
Dividing the panoramic image constituting the moving picture taken along the first movement route by the number of unit grids into panoramic images assigned to each unit grid; and
A method of moving a 3D modeling space, characterized in that mapping through the step of setting one of the panoramic images allocated for each unit grid as a panoramic image for the corresponding unit grid.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210153265A KR20230067307A (en) | 2021-11-09 | 2021-11-09 | Method for moving in 3D modeling space using avatar |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210153265A KR20230067307A (en) | 2021-11-09 | 2021-11-09 | Method for moving in 3D modeling space using avatar |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230067307A true KR20230067307A (en) | 2023-05-16 |
Family
ID=86546456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210153265A KR20230067307A (en) | 2021-11-09 | 2021-11-09 | Method for moving in 3D modeling space using avatar |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230067307A (en) |
-
2021
- 2021-11-09 KR KR1020210153265A patent/KR20230067307A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6425780B1 (en) | Image processing system, image processing apparatus, image processing method and program | |
KR102125293B1 (en) | Generation device, generation method, and storage medium | |
KR100721536B1 (en) | Method for restoring 3-dimension image using silhouette information in 2-dimension image | |
KR20170007102A (en) | Device and method for generating and displaying three-dimentional map | |
JP2019061558A (en) | Image processing device, image processing method and program | |
KR20140100656A (en) | Point video offer device using omnidirectional imaging and 3-dimensional data and method | |
CN109906600B (en) | Simulated depth of field | |
CN105611267B (en) | Merging of real world and virtual world images based on depth and chrominance information | |
JP2019197279A (en) | Image processing apparatus, method for controlling image processing apparatus, and program | |
CN110956695A (en) | Information processing apparatus, information processing method, and storage medium | |
TW201921318A (en) | Apparatus and method for generating a tiled three-dimensional image representation of a scene | |
CN108028904B (en) | Method and system for light field augmented reality/virtual reality on mobile devices | |
WO2018052100A1 (en) | Image processing device, image processing method, and image processing program | |
JP2019128641A (en) | Image processing device, image processing method and program | |
CN110969706B (en) | Augmented reality device, image processing method, system and storage medium thereof | |
JP2023172882A (en) | Three-dimensional representation method and representation apparatus | |
KR20180120456A (en) | Apparatus for providing virtual reality contents based on panoramic image and method for the same | |
JP2018036898A (en) | Image processing device and control method of the same | |
JP2008217593A (en) | Subject area extraction device and subject area extraction program | |
JP2019103126A (en) | Camera system, camera control device, camera control method, and program | |
WO2020084312A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
KR102648882B1 (en) | Method for lighting 3D map medeling data | |
KR20230067307A (en) | Method for moving in 3D modeling space using avatar | |
KR20230067311A (en) | Method for processing image for 3D avatar movement in 3D modeling space | |
JP5001400B2 (en) | Shield removal display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |