WO2014010909A1 - 이동 자유도를 개선한 융합형 가상현실 구현 방법 - Google Patents

이동 자유도를 개선한 융합형 가상현실 구현 방법 Download PDF

Info

Publication number
WO2014010909A1
WO2014010909A1 PCT/KR2013/006082 KR2013006082W WO2014010909A1 WO 2014010909 A1 WO2014010909 A1 WO 2014010909A1 KR 2013006082 W KR2013006082 W KR 2013006082W WO 2014010909 A1 WO2014010909 A1 WO 2014010909A1
Authority
WO
WIPO (PCT)
Prior art keywords
space
image
virtual reality
user
freedom
Prior art date
Application number
PCT/KR2013/006082
Other languages
English (en)
French (fr)
Inventor
송헌주
Original Assignee
Song Hun Joo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Song Hun Joo filed Critical Song Hun Joo
Publication of WO2014010909A1 publication Critical patent/WO2014010909A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/954Navigation, e.g. using categorised browsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Definitions

  • the present invention relates to a method of implementing a fusion type virtual reality with improved freedom of movement. More specifically, by fusion of a conventional method of realizing virtual reality, cross-outputting of panorama data in image and image formats improves the degree of freedom of movement with low capacity and high efficiency.
  • the present invention relates to a convergent virtual reality implementation method.
  • virtual reality is a digital tool that enables users (end-users) to obtain information by cognizing and exploring space by moving and immersing a viewpoint into a three-dimensional virtual space rather than reality.
  • the 3D (x, y, z) axis must exist as if it were a reality, and a panoramic image viewed from the point of view at the same height as the user's eyes embodies objects in the intangible digital space.
  • Me is implemented as a video.
  • FIG. 1 is a block diagram illustrating an image-based virtual reality using a conventional hexahedron. As shown in FIG. 1, a hexahedron having at least eight points is created in a digital space, and the image output is directed inward of the hexahedron.
  • a pair of images corresponding to a realistic panoramic shot image or a computer-generated hexahedron is output to each side, while the camera is positioned at the inner center to allow the user to look around from the camera's point of view.
  • Image-based virtual reality tools work.
  • the effect of viewing 360 ° in all directions is obtained.
  • image-based map services such as Google Street View, Naver Street View, Daum Road View, and online sample houses of public rental housing businesses such as nest homes.
  • FIG. 2 is a block diagram showing a virtual reality based on the image using a conventional sphere, as shown in Figure 2 by using a sphere to output one image data spread 360 ° all around, and the camera is installed in the center Image-based virtual reality is constructed.
  • the most prominent feature of the video input-based virtual reality service is that it can have mobility according to the direction of the camera of the video input unlike the image-based. As the user plays or stops the input video, the user perceives as walking or stopping the space. Done.
  • FIG. 3 is a block diagram showing an object-based virtual reality using a conventional object original. As shown in FIG. Applying and outputting the same lighting algorithm, the collision formula between the wall and the camera, there is an object-based virtual reality system.
  • This method is the most advanced virtual reality method as demonstrated by various game programs.
  • the object method has a disadvantage in that the capacity is large for viewing on the web and mobile, or the operation of the lighting is slow and the installation of a solution for viewing virtual reality on the user's hardware may be added.
  • the work of optimizing the shape of the object, the number of points, and the size of the map data is indispensable.
  • the expressed visualization quality is improved as the hardware and software are developed.
  • a better lighting analysis method is required, and the user has to pay a more expensive solution cost.
  • the present invention was created in order to improve the above-mentioned conventional problems, and to provide a fusion type virtual reality of a method of fusing a virtual reality realization method to cross-output an image and an image, the user of the optimal viewpoint of the virtual space When it is stopped, it is realized with high-quality, high-capacity, optimized image-type virtual reality, and when the user needs to move to another space, convergence is improved, which enables users to cross-print and output the image to the virtual reality along the optimal line of space movement.
  • the purpose is to provide a virtual reality implementation method.
  • another object of the present invention is to show the converged virtual reality by implementing the point of the optimal copper wire and space of the space design in the high quality low capacity at the designer's side, at the user side easily in low-spec mobile and computer It is to provide a method of implementing a converged virtual reality with improved freedom of movement that can provide a converged virtual reality so as to achieve the purpose of spatial search without heavy access to a service server.
  • a method of implementing a converged virtual reality with improved freedom of movement includes: 1) creating a digital virtual space; Generating a panoramic image by correcting and matching a plurality of images photographed by 360-degree directional images at a point in the real space using a panoramic camera; 2) generating a panoramic image by compressing the photographed image by capturing an image in each direction of 360 degrees at a point in the real space using a panoramic camera to create a digital virtual space; 3) Create a computer graphics (CG) space using computer graphics software, and create panoramic images and images in 360-degree directions from one point of the computer graphics (CG) space created using the panorama camera supported by the software.
  • CG computer graphics
  • Doing 4) creating an object in a digital virtual space to texture map the generated panoramic image and image, and editing data coordinates required for texture mapping processing; 5) outputting the panoramic image and the image to a cube or sphere which is an object created in a digital virtual space; 6) creating a camera in a digital virtual space so that the user can control it; 7) detecting whether the user has selected another space; And 8) continuously outputting an image and a video panorama of a moving line to a final arrival point when moving to a space selected by a user.
  • the graphical user interface for selecting a space to be moved by the user during the movement search of the virtual reality space is implemented to be implemented on a two-dimensional screen or located in the space in the form of a three-dimensional object. do.
  • the present invention includes the steps 8-1) of executing the algorithm for searching for the final destination of the predesigned virtual space when moving to the space selected by the user in step 8); 8-2) finding an optimal route in a multi-layered structure, a single layer structure, and a circular structure among the various paths between two nodes of the current location and the destination; And 8-3) outputting an image panorama corresponding to the final destination of the algorithm and a plurality of image panoramas on a path.
  • the algorithm of the present invention is characterized in that it is a Floyd-Washial algorithm.
  • the fusion-type virtual reality realization method to improve the degree of freedom of movement configured as described above, because it moves by moving the line by moving the movement of the actual model, as opposed to the instantaneous mobile space description of the conventional online sample house, the architecture
  • the quality of space search can be improved to satisfy the desire to purchase architecture and search space online.
  • the present invention enables the design of open source web3D (web3D) algorithms and user interfaces, and the use of integrated development tools that can be implemented on multiple devices, enabling the design of unique commercial solutions, thereby enabling a web browser on each user's PC online.
  • Flash Player a plug-in, enables data to be loaded without installing additional solutions, and virtual reality is realized.
  • mobile devices it can be produced as an independent application executable file depending on the operating system (Android, IOS). There is an advantage that can be implemented to minimize the general appreciation and solution cost.
  • FIG. 1 is a block diagram showing an image-based virtual reality using a conventional hexahedron.
  • FIG. 2 is a block diagram showing an image-based virtual reality using a conventional sphere.
  • FIG. 3 is a block diagram showing an object-based virtual reality using a conventional object original.
  • Figure 4 is an exemplary view showing a building line applicable to the graph algorithm according to the present invention.
  • FIG. 5 is a development structural diagram of a fused virtual reality according to the present invention.
  • FIG 6 illustrates an image panorama and an image panorama data format according to the present invention.
  • FIG. 7 is a diagram illustrating a user graphic interface configuration according to the present invention.
  • FIG. 8 is an exemplary diagram showing a state in which the fused virtual reality system according to the present invention is applied to a stationary kiosk.
  • FIG. 9 is a screen state diagram showing a fused virtual reality screen according to the present invention.
  • FIG. 4 is an exemplary view showing a construction line applicable to the graph algorithm according to the present invention
  • Figure 5 is a development structure diagram of a fused virtual reality according to the present invention
  • Figure 6 is an image panorama and image panorama data format according to the present invention
  • 7 is a diagram illustrating a user graphic interface configuration according to the present invention.
  • the fused virtual reality realization method of improving the degree of freedom of movement uses a panoramic camera to create a digital virtual space at a point of the real space.
  • a panoramic camera to create a digital virtual space at a point of the real space.
  • CG computer graphics
  • a panorama image is generated by combining images to generate various numbers of expanded pictures in a format conforming to various standards such as cubic, sphere, cylinder, and cross according to the virtual reality standard. do.
  • the step (2) is to occlude the same image as in the step (1) or in the case of the image to receive the image taken through a plurality of cameras to output the desired panorama format, in the case of the image compression algorithm is for example
  • the compression codec is used to meet international standards.
  • the computer graphics (CG) technology can be used to generate a panoramic image from the camera point of view of the virtual world.
  • the camera outputs images and videos in the desired panorama format. Unlike the panorama shooting in the real world, the freedom of movement of the camera is very high, and the difficulty of shooting in reality such as invasion of privacy and difficulty of shooting can be improved.
  • the object in the step (4), in order to implement virtual reality, the object is implemented in the virtual space by implementing a shape of at least a hexahedron in the digital space, and the color of the shape as in the real world or the image is output to the surface of the object as an image
  • the u, v, and w coordinates we use the u, v, and w coordinates to associate the image with the shape and perform texture mapping to have a realistic color.
  • the open source web 3D used in the texture mapping technology includes, for example, Google's Papervision3D, Away3D, Alternativa3D, sandy3D, etc. It can be imported and commercially developed as shown.
  • the camera is located at the inner center of the cube or sphere, so that colors and inputs are output to the outside of the cube or sphere to face the inner camera (normal flip). Must give.
  • the step (6) uses a camera generation technology provided by the selected technology when the virtual reality is implemented, but allows the user to control it.
  • Step 7 detects whether the user has selected another space, and is a two-dimensional user graphic interface that the user can select variously when searching for virtual reality.
  • the step (8) is to continuously output the image and video panorama of the moving line to the final destination when moving to the space selected by the user, a graphical user interface for selecting the space to be moved by the user when moving navigation of the virtual reality space As shown in FIG. 7, it is implemented on a two-dimensional surface positioned on the upper portion of the screen or located in a space in the form of a three-dimensional object.
  • the latter case is a hotspot (a user selection button consisting of three-dimensional objects existing in a virtual reality space).
  • a hotspot a user selection button consisting of three-dimensional objects existing in a virtual reality space.
  • the Floyd-Washial algorithm finds a path that can move in a minimum unit among various paths between two nodes of a current location and a destination.
  • Various spatial structures consisting of complex copper wires, such as cross structure and circular structure, are selected and compared to find the optimal copper wire.
  • the image panorama corresponding to the final destination in the Floyd-Wharsal algorithm and the multiple image panoramas on the path are output in this order.
  • the lighting can be turned on and off, and the color of the wallpaper can be experienced through key input.
  • each path targets a weighted graph that has one or more units, select one vertex to find all the minimum units from that vertex to all destinations, and then select another vertex to select all vertices from that vertex. It collects the shortest distance from all vertices to all the vertices by obtaining all the minimum units to the destination.
  • the user may select a desired path centered on the user by showing and selecting various paths that can be selected.
  • the present invention allows the user to interact with the integrated development tool of the web and mobile by inserting a figure into a virtual space with open source web 3D, and selecting an image panorama and an image panorama. It can be displayed dynamically in a mobile environment that needs to be converted to images and videos without down optimization of heavy object data and advanced visualization quality.
  • an integrated development tool is required to generate a file in a format required for various devices using a single development tool.
  • the flash integrated development tool it is possible to develop the structure as shown in FIG. 5.
  • Flash integrated development tools game development tools that support integrated development (such as Unity3D) can also be used to achieve the overall process structure.
  • integrated development such as Unity3D
  • Flash Integrated Development Environment tool in case of online connection, it is produced by * .swf which calls panorama data of images and videos with panorama information of each space on web server and calls them with web browser plug-in.
  • IOS devices can be produced and distributed in * .IPA and * .APK in the case of Android devices, so that they can be viewed on PC and mobile devices in the same way.
  • the image and video panoramas stored as described above are panoramas applied to a sphere, and have a aspect ratio of 2 to 1 aspect ratio.
  • image data it is a panoramic image of each stop point.
  • Jpeg (save for web) having 2048 X 1024 or more and a ratio of 2 to 1 so that it can be accessed from a general home modem modem level and a national PC of basic specifications. ) To save.
  • the video panorama data which appears to move each space, stores a pair of video panoramas traveling in one space and a video panorama traveling in the reverse direction.
  • the image panorama is applied as shown in FIG. 7 with a resolution of 1024 X 512 or more, which is the same or smaller image size than the image panorama of 2048 X 1024.
  • video panorama data it can be implemented only in the file format that can be applied in the open source web3D module and can be implemented as * .flv or * .mp4, but mp4 of H.264 is useful in terms of compression ratio, but according to the specification of development version. Apply appropriate selection.
  • a two-dimensional user graphic interface that allows the user to interact with open source 3D implemented in virtual reality on the screen is implemented on the screen, which has a depth between the web 3D data located inside the depth and the user. Present on the display in 2D.
  • the web 3D is controlled as the user intends by receiving the input of the user's mouse, the touch device, the trackpad, and the gesture recognition device.
  • the 2D user graphic interface shows the space selection section for each space, the rotation of the view point and the reference angle of the space in the virtual reality, the direction selection section for the left, right, up and down, and the coordinates of the entire space at a glance. It consists of a flat display unit, a full screen switching button that allows the user to control the full screen according to the size of his display, and also a voice control part of the voice guidance for the weak. Based on this configuration, it can be designed in various configurations according to the user's environment and can be included in existing online services.
  • FIG. 8 is an exemplary diagram showing a state in which the fused virtual reality system according to the present invention is applied to a stationary kiosk. As shown in FIG. 8, by applying the fusion type virtual reality system to an independent kiosk holder, exhibiting various types of architectural spaces of the erected model house, overcoming the spatial limitations that need to be physically constructed, and promoting to more various types And sell.
  • the thickness of the mini PC that can be independently mounted inside the kiosk becomes thinner than 50mm, so that the range of visual improvement can be improved, so that a hand, stylus pen or Trackpad, touchpad, gesture input device can be connected even if the user places a certain distance on the screen.
  • FIG. 9 is a screen state diagram showing a fused virtual reality screen according to the present invention.
  • a number of image or video files to be used as input to a rectangle or sphere which is an object of a virtual space, are accessed by accessing the online sample housing system from a simple web connection or a mobile device.
  • the environment is steadily improving with the development of technology, but in the current online model houses, the space is presented in a monotonous way by outputting and projecting onto a simple, low-definition cube-based image based on past specifications. It does not seem to move like this, but it shows the space movement as a simple way of teleporting.
  • the present invention cross-outputs a panorama of image and video format of a technically accessible capacity for each situation and improves the user to view the space as if moving directly by moving lines with low capacity and high efficiency.
  • 360 ° omnidirectional viewing is possible even when moving, and the output is changed to a high quality image format when stopping on a space line, enabling higher quality 360 ° omnidirectional viewing.
  • the most useful point for searching the architectural design space and the best moving point and moving copper line which the designer considered in the design are selected and designed. After categorizing the designed points and moving lines by usage, the points create image panoramas, and the moving lines generate files in the image panorama format.
  • the digital space which enables the viewer to move the prepared point and the moving line to any place, provides the mobility of the real space as the space designer intends.
  • the present invention is not a description of the teleportation space of the conventional online sample house, but moves by line and moves while observing the motion of the actual mechanism. And the space search desire.
  • the present invention uses an open development web3D (web3D) algorithm and the integrated development tool capable of designing a user interface, so that a unique commercial solution can be designed.
  • web3D web3D

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 이동 자유도를 개선한 융합형 가상현실 구현 방법에 관한 것으로, 설계자의 측면에서는 공간 설계의 최적의 동선과 공간의 장점이 있는 지점을 동시에 고품질 저용량으로 구현하여 융합형 가상현실을 보여줄 수 있고, 사용자 측면에서는 저사양 모바일과 컴퓨터에서도 손쉽게 서비스 서버에 접속하여 무겁지 않게 공간 탐색의 목적을 이룰 수 있도록 융합형 가상현실을 제공할 수 있는 매우 유용한 발명인 것이다.

Description

이동 자유도를 개선한 융합형 가상현실 구현 방법
본 발명은 이동 자유도를 개선한 융합형 가상현실 구현 방법에 관한 것으로, 더욱 상세하게는 종래의 가상현실 구현 방식을 융합하여 이미지 및 영상 형식의 파노라마 데이터를 교차 출력하여 저용량 고효율로 이동 자유도를 개선한 융합형 가상현실 구현 방법에 관한 것이다.
일반적으로 가상현실(Virtual reality)은 사용자(최종 사용자, End-user)가 현실이 아닌 3차원 가상의 공간으로 시점을 이동하고 몰입하여 공간을 인지, 탐색함으로써 정보를 얻을 수 있게 하는 디지털 도구이다.
가상의 공간을 현실처럼 창조하려면 3차원(x, y, z)축이 현실과 같이 반드시 존재하여야 하며, 그 무형의 디지털 공간에 물체를 구현하고 사용자의 눈과 같은 높이의 시점에서 바라 본 파노라마 이미지나 영상으로 구현된다.
도 1은 종래의 육면체를 이용한 이미지 기반의 가상현실을 나타낸 구성도로서, 도 1에 도시된 바와 같이 디지털 공간에 최소 8개의 점으로 이루어지는 육면체를 만들고 이미지 출력을 육면체의 안쪽으로 향하게 한다.
이후, 현실의 파노라마 촬영 이미지나 컴퓨터그래픽으로 만들어진 육면체에 한 쌍으로 대응되는 이미지 데이터를 각 면에 맞게 출력하면서, 동시에 내부 중심에 카메라를 위치시켜 사용자가 카메라의 시점으로 사방을 둘러보도록 하면 가장 단순한 형태의 이미지 기반의 가상현실 도구가 작동된다.
사용자가 육면체를 회전시키거나 또는 카메라 자체를 회전하며 현실과 같이 360˚ 전방향을 감상하는 효과를 얻게 된다. 예를 들어, 구글의 스트리트뷰(Google Street View), 네이버의 거리뷰, 다음의 로드뷰 등 이미지 기반의 지도서비스나 보금자리 주택과 같은 공공임대주택 사업의 온라인 견본주택 등에 적용되고 있다.
이와 같은 경우, 감상 공간의 전, 후, 좌, 우로 이동성이 전혀 없기 때문에 일부 이미지 입력 기반의 가상현실에서는 근접의 다른 위치의 파노라마 이미지를 교체하여 사용자가 걷는 효과를 주기도 하지만 현실과 같은 끊이지 않게 시점이 이어지는 이동성을 주지 못하는 단점이 있다.
도 2는 종래의 구체를 이용한 영상기반의 가상현실을 나타낸 구성도로서, 도 2에 도시된 바와 같이 구체를 이용한 것으로 360˚ 사방을 펼쳐진 1개의 영상 데이터를 출력하고, 그 중심에 카메라를 설치하면 영상 기반의 가상현실이 구성된다.
영상 입력기반의 가상현실 서비스의 가장 두드러진 특징은 이미지 기반과는 다르게 영상 입력의 카메라 방향에 따라 이동성을 가질 수 있다는 것으로, 입력 영상을 재생하거나 멈춤에 따라 사용자는 마치 공간을 걷거나 멈추거나 하는 것으로 인지하게 된다.
그러나, 영상 입력기반의 가상현실로 현실과 같은 이동성을 느낄 수 있지만 완전한 자유도를 구현하기는 어려운 문제점이 있다. 이는 입력 영상의 동선으로만 이동할 수 있기 때문이다. 데이터의 용량은 영상 데이터를 입력으로 사용하므로 이미지 입력을 사용할 때보다 늘어나게 된다.
도 3은 종래의 오브젝트 원본을 이용한 오브젝트 기반의 가상현실을 나타낸 구성도로서, 도 3에 도시된 바와 같이, 현실 세계와 같이 형상데이터 모델을 그대로 구현하고 사람의 시점처럼 이동성이 있는 카메라와 현실과 같은 조명 알고리즘, 벽과 카메라의 충돌 공식을 적용하고 출력하면 현실세계와 같은 오브젝트 기반의 가상현실 방식이 있다.
이 방식은 다양한 게임프로그램에서 증명되듯이 가장 고도화된 가상현실 방식이다. 그러나 오브젝트 방식의 경우 웹과 모바일에서 감상하기에는 용량이 크거나 조명을 연산하면 구동이 느리고 사용자의 하드웨어에 가상현실을 감상하는 솔루션의 설치가 추가될 수 있는 단점이 있다.
오브젝트 방식은 오브젝트의 형상, 점의 개수, 맵 데이터의 크기까지도 최적화시키는 작업이 필수로 진행된다. 그 결과 표현된 시각화 품질은 하드웨어와 소프트웨어의 발전이 진행될수록 개선되고 있으나 상업적인 품질을 유지하기 위하여 더욱 좋은 조명 해석 방식이 필요하며 사용자는 더욱 비싼 솔루션 비용을 지불해야 하는 단점이 있다.
이와 같이 가상현실의 구현 방식들은 종래의 모든 방법이 이러한 이미지, 영상, 오브젝트의 세 가지 범주로 나뉘고, 그 데이터의 용도에 따라 고용량 데이터와 솔루션의 설치 등이 상관없는 분야에서는 오브젝트 구동방식의 가상현실이 주를 이루며, 그 외에 저용량의 빠른 감상이 필요한 분야에서는 이미지나 영상 기반의 가상현실 구동 방식이 선택적으로 사용되고 있는 실정이다.
본 발명은 이상과 같은 종래의 문제점을 개선하기 위하여 창출된 것으로서, 가상현실 구현 방식을 융합하여 이미지와 영상을 교차 출력하는 방식의 융합형 가상현실을 제공하는 것으로, 사용자가 가상공간의 최적의 시점에 멈추면 고화질 대용량의 최적화된 이미지형 가상현실로 구현하고, 사용자가 다른 공간으로 이동이 필요하면 공간 이동의 최적동선을 따라 영상의 가상현실로 교차 출력하여 보여줄 수 있도록 된 이동 자유도를 개선한 융합형 가상현실 구현 방법을 제공함에 그 목적이 있는 것이다.
또한, 본 발명의 다른 목적은 설계자의 측면에서는 공간 설계의 최적의 동선과 공간의 장점이 있는 지점을 동시에 고품질 저용량으로 구현하여 융합형 가상현실을 보여줄 수 있고, 사용자 측면에서는 저사양 모바일과 컴퓨터에서도 손쉽게 서비스 서버에 접속하여 무겁지 않게 공간 탐색의 목적을 이룰 수 있도록 융합형 가상현실을 제공할 수 있는 이동 자유도를 개선한 융합형 가상현실 구현 방법을 제공하는 것이다.
이와 같은 본 발명의 목적을 달성하기 위한 본 발명에 따른 이동 자유도를 개선한 융합형 가상현실 구현 방법은, 이동 자유도를 개선한 융합형 가상현실 구현 방법에 있어서, 1) 디지털 가상의 공간을 생성하기 위해 파노라마 카메라를 이용하여 현실 공간의 한 지점에서 360도 각 방향의 이미지를 촬영하여 촬영된 다수의 이미지들을 교정 및 부합시켜 파노라마 이미지를 생성하는 단계와; 2) 디지털 가상의 공간을 생성하기 위해 파노라마 카메라를 이용하여 현실 공간의 한 지점에서 360도 각 방향의 영상을 촬영하여 촬영된 영상을 압축시켜 파노라마 영상을 생성하는 단계; 3) 컴퓨터그래픽 소프트웨어를 사용하여 컴퓨터그래픽(CG) 공간을 생성하고, 소프트웨어에서 지원하는 파노라마 카메라를 이용하여 생성된 컴퓨터그래픽(CG) 공간의 한지점에서 360도 각 방향의 파노라마 이미지 및 영상을 생성하는 단계; 4) 상기 생성된 파노라마 이미지 및 영상을 텍스처 매핑하기 위해 디지털 가상의 공간에 오브젝트를 생성하고, 텍스처 매핑 처리에 필요한 데이터 좌표를 편집하는 단계; 5) 디지털 가상의 공간에 생성된 오브젝트인 육면체 또는 구체에 상기 파노라마 이미지와 영상을 출력하는 단계; 6) 디지털 가상의 공간에 카메라를 생성하여 사용자가 제어할 수 있도록 하는 단계; 7) 사용자가 다른 공간을 선택하였는지 여부를 감지하는 단계; 및 8) 사용자에 의해 선택된 공간으로 이동시 동선의 이미지 및 영상 파노라마를 최종 도착지점까지 끊김 없이 연속해서 출력하는 단계;를 포함한다.
본 발명은 상기 7) 단계에서, 가상현실 공간의 이동 탐색 시 사용자가 이동 할 공간을 선택하는 그래픽 사용자 인터페이스는 2차원 화면상에 구현되거나 또는 3차원 오브젝트 형태로 공간에 위치되도록 구현되는 것을 특징으로 한다.
본 발명은 상기 8) 단계에서, 사용자에 의해 선택된 공간으로 이동시 미리 설계된 가상공간의 최종 목적지를 찾아가기 위한 알고리즘을 실행하는 8-1) 단계와; 현재 위치와 목적지의 두 노드 사이의 여러 가지 경로들 중에서 최소의 단위로 이동할 수 있는 경로를 다층구조, 단층구조, 순환구조로 최적의 경로를 찾는 8-2) 단계; 및 알고리즘 상의 최종 목적지에 해당하는 이미지 파노라마와 경로상의 복수 영상 파노라마를 출력하는 8-3) 단계;를 포함하는 것을 특징으로 한다.
본 발명의 상기 알고리즘은 플로이드-와셜 알고리즘인 것을 특징으로 한다.
상기와 같이 구성된 본 발명에 따른 이동 자유도를 개선한 융합형 가상현실 구현 방법은, 종래의 온라인 견본주택의 순간 이동식 공간설명이 아니라 동선별로 이동하며 실제 기구의 동작 등을 그대로 감상하면서 이동하기 때문에 건축 공간 탐색의 질을 높여 온라인 견본주택의 건축 구매 및 공간 탐색욕구를 충족시킬 수 있는 장점이 있다.
또한, 본 발명은 오픈소스 웹3D(web3D) 알고리즘과 사용자 인터페이스 설계가 가능하며 여러 디바이스에서 구현 가능한 통합개발도구를 사용하므로 독자적인 상업적 솔루션 설계가 가능하고, 이를 통해 온라인상에서는 각 사용자의 PC에서 웹브라우저의 플러그인인 플래시플레이어에서 추가 솔루션의 설치 없이 데이터가 로드됨과 동시에 가상현실이 구현되며, 모바일 기기에서는 운영체제(안드로이드, IOS)에 따라 독립적인 어플리케이션 실행파일로 제작이 가능하여 가벼우면서도 다수의 디바이스에서 통일적인 감상과 솔루션 비용이 최소로 소모되도록 구현할 수 있는 장점이 있다.
도 1은 종래의 육면체를 이용한 이미지 기반의 가상현실을 나타낸 구성도이다.
도 2는 종래의 구체를 이용한 영상기반의 가상현실을 나타낸 구성도이다.
도 3은 종래의 오브젝트 원본을 이용한 오브젝트 기반의 가상현실을 나타낸 구성도이다.
도 4는 본 발명에 따른 그래프 알고리즘이 적용 가능한 건축동선을 나타낸 예시도이다.
도 5는 본 발명에 따른 융합형 가상현실의 개발 구조도이다.
도 6은 본 발명에 따른 이미지 파노라마와 영상 파노라마 데이터형식을 나타낸 도면이다.
도 7은 본 발명에 따른 사용자 그래픽 인터페이스 구성을 나타낸 도면이다.
도 8은 본 발명에 따른 융합형 가상현실 시스템을 거치형 키오스크에 적용한 상태를 나타낸 예시도이다.
도 9는 본 발명에 따른 융합형 가상현실을 화면으로 나타낸 화면 상태도이다.
이하, 본 발명의 바람직한 실시의 예를 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다.
도 4는 본 발명에 따른 그래프 알고리즘이 적용 가능한 건축동선을 나타낸 예시도이고, 도 5는 본 발명에 따른 융합형 가상현실의 개발 구조도이며, 도 6은 본 발명에 따른 이미지 파노라마와 영상 파노라마 데이터형식을 나타낸 도면이고, 도 7은 본 발명에 따른 사용자 그래픽 인터페이스 구성을 나타낸 도면이다.
먼저, 도 4 내지 도 7에 도시된 바와 같이, 본 발명에 따른 이동 자유도를 개선한 융합형 가상현실 구현 방법은, 디지털 가상의 공간을 생성하기 위해 파노라마 카메라를 이용하여 현실 공간의 한 지점에서 360도 각 방향의 이미지를 촬영하여 촬영된 다수의 이미지들을 교정 및 부합시켜 파노라마 이미지를 생성하는 단계(1)와, 디지털 가상의 공간을 생성하기 위해 파노라마 카메라를 이용하여 현실 공간의 한 지점에서 360도 각 방향의 영상을 촬영하여 촬영된 영상을 압축시켜 파노라마 영상을 생성하는 단계(2), 컴퓨터그래픽 소프트웨어를 사용하여 컴퓨터그래픽(CG) 공간을 생성하고, 소프트웨어에서 지원하는 파노라마 카메라를 이용하여 생성된 컴퓨터그래픽(CG) 공간의 한지점에서 360도 각 방향의 파노라마 이미지 및 영상을 생성하는 단계(3), 상기 생성된 파노라마 이미지 및 영상을 텍스처 매핑하기 위해 디지털 가상의 공간에 오브젝트를 생성하고, 텍스처 매핑 처리에 필요한 데이터 좌표를 편집하는 단계(4), 디지털 가상의 공간에 생성된 오브젝트인 육면체 또는 구체에 상기 파노라마 이미지와 영상을 출력하는 단계(5), 디지털 가상의 공간에 카메라를 생성하여 사용자가 제어할 수 있도록 하는 단계(6), 사용자가 다른 공간을 선택하였는지 여부를 감지하는 단계(7), 및 사용자에 의해 선택된 공간으로 이동시 동선의 이미지 및 영상 파노라마를 최종 도착지점까지 끊김 없이 연속해서 출력하는 단계(8)를 포함한다.
상기 단계(1)은, 현실 공간의 이미지를 그대로 가상현실 규격에 맞는 cubic, sphere, cylinder, cross 와 같은 여러 규격에 맞는 형식으로 다양한 개수의 펼친 그림을 생성하기 위하여 이미지를 교합시켜 파노라마 이미지를 생성한다.
상기 단계(2)는, 상기 단계(1)과 같은 이미지를 교합시키거나 영상의 경우 복수개의 카메라를 통해 촬영된 영상을 입력받아 원하는 파노라마 형식으로 출력하는 것으로, 영상의 경우 압축 알고리즘은 예를 들어, 국제 표준에 맞도록 압축 코덱을 사용한다.
상기 단계(3)은, 상기 단계(1), 단계(2) 이외에 컴퓨터그래픽(CG) 기술의 발달로 가상세계의 카메라 시점에서 파노라마 이미지를 생성할 수 있으므로 컴퓨터그래픽 공간(OpenGL, DirectX 등)의 카메라에서 원하는 파노라마 형식의 이미지와 영상을 출력한다. 이는 현실세계의 파노라마 촬영과는 다르게 카메라의 이동 자유도가 매우 높고 사생활 침해, 촬영의 어려움 등의 현실 촬영의 어려움이 개선될 수 있다.
상기 단계(4)는, 가상현실을 구현하려면 디지털 공간에 최소 육면체 이상의 형상을 구현하여 가상의 공간에 오브젝트를 구현하고 현실세계와 같이 형상의 색상을 지정하거나 이미지로 오브젝트의 표면에 출력하기 위하여 x, y, z 좌표 이외에 u, v, w 좌표를 사용하여 형상에 이미지를 교합시켜 현실과 같은 색상을 가질 수 있도록 텍스처 매핑을 실행한다.
여기서, 상기 텍스처 매핑 기술구현에 사용되는 오픈소스 웹3D는 예를 들어, 구글의 Papervision3D, Away3D, Alternativa3D, sandy3D 등 이 존재하나 상업적인 용도로도 완전히 로고 노출이 없이 사용가능한 Away3D 그래픽 엔진을 표 1에 나타낸 바와 같이 임포트하여 상업적으로 개발할 수 있다.
표 1
Figure PCTKR2013006082-appb-T000001
상기 단계(5)는, 파노라마 데이터를 이용한 가상현실의 경우 육면체나 구체의 내부 중심에 카메라가 위치하므로 육면체나 구체의 바깥쪽으로 색상과 입력이 출력되는 것을 안쪽의 카메라 방향으로 향하도록 뒤집어(normal flip) 주어야 한다.
상기 단계(6)은 가상현실 구현시 선택된 기술에서 제공하는 카메라 생성 기술을 이용하되 사용자가 제어 가능하도록 한다.
상기 단계(7)은 사용자가 다른 공간을 선택하였는지 여부를 감지하는 것으로, 사용자가 가상현실 탐색 시 다양하게 선택 가능한 2차원 사용자 그래픽 인터페이스이다.
상기 단계(8)은 사용자에 의해 선택된 공간으로 이동시 동선의 이미지 및 영상 파노라마를 최종 도착지점까지 끊김 없이 연속해서 출력하는 것으로, 가상현실 공간의 이동 탐색 시 사용자가 이동 할 공간을 선택하는 그래픽 사용자 인터페이스로서, 도 7에 도시된 바와 같이 화면의 상부에 위치하는 2차원 면에 구현되거나 아니면 3차원 오브젝트 형태로 공간에 위치한다.
후자의 경우를 핫스팟(hotspot : 가상현실의 공간상에 존재하는 3차원 오브젝트로 이루어진 사용자 선택 버튼)으로 사용자가 360˚ 방향 탐색을 하다가 이 핫스팟을 선택 실행하면 핫스팟과 연결된 가상공간의 이미지 및 영상 데이터로 출력이 교환되며, 이 과정에서 사용자가 미리 설계된 가상공간의 최종 목적지로 찾아가기 위하여 길을 찾아주는 알고리즘이 필요하다.
본 발명에서는 플로이드-와셜 알고리즘을 예를 들어 설명한다. 도 4에 도시된 바와 같이, 플로이드-와셜 알고리즘은 현재 위치와 목적지의 두 노드 사이의 여러 가지 경로들 중에서 최소의 단위로 이동할 수 있는 경로를 찾는 알고리즘으로 현실의 공간과 같이 단층구조, 다층구조, 교차구조, 순환구조 등 복잡한 동선으로 이루어진 다양한 공간 구조를 최적 동선으로 선택 비교하여 찾아가도록 한다.
플로이드-와셜의 알고리즘 상의 최종 목적지에 해당하는 이미지 파노라마와 경로상의 복수 영상 파노라마를 순서대로 출력한다.
또한, 사용자에 의해 선택된 지점에서 가구의 동작이나 조명의 켜고 끔, 벽지의 색상 바꿈 등을 키입력을 통해 체험할 수 있다.
예를 들어, 각 경로는 1 이상의 단위를 가지고 있는 가중 그래프를 대상으로 한다고 가정하면, 한 정점을 선택하여 그 정점으로부터 모든 종착지까지 모든 최소 단위를 구하고, 또 다시 다른 정점을 선택하여 그 정점으로부터 모든 종착지까지 모든 최소 단위를 구하여 모든 정점으로부터 모든 정점까지의 최단거리 정보를 수집하는 방식이다.
이때, 한 정점으로부터 다른 정점까지의 단위가 기존의 경로보다 다른 정점을 거쳐 가는 단위가 더 낮다면 그 경로로 대체하는 연산으로 모든 경로를 연산한다. 사용자가 이동하고 싶은 목적지를 클릭하면 이와 같이 구해진 최단경로 배열을 참조하여 최단경로의 영상을 차례로 사용자에게 출력한다.
또한, 사용자가 최단거리만을 목적으로 하지 않을 경우, 선택 가능한 경로를 다양하게 보여주고 선택하도록 함으로써, 사용자 중심으로 원하는 경로를 선택하도록 할 수 있다.
표 2
Figure PCTKR2013006082-appb-T000002
통합개발 부분 중 각 건축 공간의 구조를 파악하고 각 지점의 노드를 연결하는 부분을 분류하고 표 2와 같이 그래프 알고리즘을 코드 처리한다. 위와 같은 플로이드-와셜 알고리즘으로 구현해야 할 모든 경우의 건축 동선을 최소 단위로 이미지, 영상 파노라마의 교차 출력이 가능하고, 어떠한 복잡한 건축구조에서도 현실 세계와 같은 동선 구현이 가능 하며, 또한 정방향과 역방향의 방향성도 구현할 수 있다.
도 5에 도시된 바와 같이 본 발명은 오픈소스 웹3D로 가상의 공간에 도형을 넣고 웹과 모바일의 통합개발 도구로 사용자의 상호작용을 하도록 하고 이미지형태의 파노라마와 영상 형태의 파노라마를 감상자의 선택에 따라 보여주어 무거운 오브젝트 데이터와 고도화된 시각화 품질 그대로를 하향 최적화시키지 않고 이미지와 영상으로 변환하여 비교적 가볍게 구현되어야 하는 모바일 환경에서도 감상 가능하도록 동적으로 보여줄 수 있게 된다.
한편, 본 발명을 이용한 가상현실을 만들기 위해서는 단일의 개발 툴(Tool)을 이용하여 여러 장치에 필요한 형식으로 파일을 생성할 수 있도록 통합 개발 툴이 필요하다. 그 예로 플래시 통합 개발 툴을 이용하여 개발하려면 도 5에 도시된 바와 같은 구조로 개발이 가능하다.
플래시 통합 개발 툴 이외에 통합 개발이 지원되는 게임 개발 툴(예: Unity3D 등)을 사용하여도 전체 공정 구조를 이룰 수 있다.
온라인 접속에 대비한 *.swf, *.apk, *.ipa 과 같은 온라인 서버 접속용과 PC와 모바일에 직접 설치하여 감상할 수 있는 *.air의 독립 실행용으로 구분된다.
플래시 통합개발(Integrated Development Environment) 도구로 개발하였다면 온라인 접속의 경우 웹서버에 각 공간의 파노라마 정보를 가지는 이미지, 영상의 파노라마 데이터와 이들을 웹 브라우져 플러그인으로 호출하는 *.swf 로 제작하고, 모바일 기기의 경우에는 IOS 디바이스는 *.IPA, 안드로이드 기기의 경우에는 *.APK 로 제작 배포하여 PC 및 모바일 기기에서도 동일하게 감상 가능하도록 한다.
이와 같이 저장되는 이미지 및 영상 파노라마의 형태는 구체에 적용되는 파노라마로 가로 세로 2대1의 화면비율을 가진다. 이미지 데이터의 경우 각 정지 지점의 대응되는 1개의 파노라마 이미지로 일반 가정집 모뎀수준의 접속과 기본사양의 국민PC에서 접속 가능하도록 2048 X 1024 이상이고 2대1의 비례를 가지는 *,jpeg(save for web) 형태로 저장한다.
각 공간을 이동하는 것처럼 보여주는 영상 파노라마 데이터는 한 공간에서 한 공간으로 진행하는 영상 파노라마와 역방향으로 진행하는 영상 파노라마를 각기 한 쌍으로 저장한다.
즉, 융합형 가상현실에서 사용자가 감상하는 지점이 10개의 공간이라고 가정하면 10개의 지점 이미지 파노라마 데이터와 정방향과 역방향의 영상 파노라마가 지점 당 2개씩 필요하므로 20개의 영상 파노라마가 필요하다.
영상 파노라마의 경우 움직임에 사용되므로 2048 X 1024의 이미지 파노라마와 같은 크기보다는 작거나 같은 영상크기인 1024 X 512 이상의 해상도로 도 7에 도시된 바와 같이 적용된다.
영상 파노라마 데이터의 경우 오픈소스 web3D 모듈에서 적용 가능하게 구현된 파일 형태만으로 구현 가능하며 *.flv나 *.mp4로 구현가능하나 H.264의 mp4가 압축율면에서 유용하나 개발버전의 허용 사양에 따라 적절하게 선택 적용 한다.
또한, 가상현실에 구현된 오픈소스 3D를 사용자가 화면에서 상호작용할 수 있도록 하는 2차원 사용자 그래픽 인터페이스도 화면상에 구현되며, 이는 깊이 안쪽에 위치하는 웹3D 데이터와 사용자 사이에 위치하는 깊이를 가지며 2D로 디스플레이 상에 존재한다.
도 7에 도시된 바와 같이, 사용자의 마우스, 터치 디바이스의 입력, 트랙패드, 동작인식 기기의 입력을 받아 사용자의 의도대로 웹3D를 제어하도록 한다.
2D의 사용자 그래픽 인터페이스에는 각 공간을 선택할 수 있는 공간선택 부분과 가상현실의 공간의 시점 회전 및 기준각도로 이동, 좌, 우, 상, 하의 방향 선택 부분, 그리고 전체 공간의 좌표를 한눈에 알 수 있는 평면표시부와 사용자가 자신의 디스플레이의 크기에 맞추어 전체화면으로 제어 할 수 있는 전체화면 전환 버튼, 또한 약자를 위한 음성안내의 음성제어부분으로 구성된다. 이와 같은 구성을 기본으로 사용자의 환경에 맞게 다양한 구성으로 설계 가능하며 기존의 온라인 서비스에 포함 병합 가능하다.
도 8은 본 발명에 따른 융합형 가상현실 시스템을 거치형 키오스크에 적용한 상태를 나타낸 예시도이다. 도 8에 도시된 바와 같이, 용합형 가상현실 시스템을 독립적 키오스크 거치대에 적용하여 건립형의 모델하우스의 다양한 타입의 건축 공간을 전시함으로 물리적으로 건립해야하는 공간적인 한계를 극복하고, 더욱 다양한 타입으로 홍보 및 판매할 수 있다.
또한, 컴퓨터 하드웨어의 발달로 키오스크 내부에 독립적으로 거치할 수 있는 미니 PC의 두께가 50mm이하로 더욱 얇아져 시각적으로 개선할 수 있는 범위가 점점 넓게 발달함으로써, 거치형의 키오스크 영상 표시부에 손이나 스타일러스 펜 또는 트랙패드, 터치패드, 동작 입력 장치를 연결 사용자가 화면에 일정 거리를 두더라도 운용할 수 있다.
도 9는 본 발명에 따른 융합형 가상현실을 화면으로 나타낸 화면 상태도이다. 도 9에 도시된 바와 같이, 디지털 기술 및 하드웨어 사양의 발전으로 간단한 웹 접속이나 모바일 기기에서 온라인 견본주택 시스템에 접속하여 가상공간의 오브젝트인 사각형이나 구형에 입력으로 사용될 다수의 이미지나 영상 파일의 다운로드 환경은 기술의 발전과 함께 꾸준히 향상되고 있으나, 현재의 온라인 견본주택에서는 과거의 사양에 맞춘 이미지 기반의 간단한 저사양의 육면체의 오브젝트에 출력 투사하는 단조로운 방법으로 공간을 보여주고 있으며, 사용자가 공간을 현실처럼 이동하는 것처럼 보여주지 못하고 순간 이동하는 단순한 방법으로 공간이동을 보여주고 있다. 그 결과 사용자는 온라인 견본주택 감상 후에도 실제 모델하우스의 감상 후처럼 공간에 대한 전반적인 구조를 파악하고 머릿속에 그림을 그리듯 구조를 다시 그려보기 힘들다.
이에 본 발명은 기술적으로 접속 가능한 용량의 이미지와 영상 형식의 파노라마를 상황별로 교차 출력하여 사용자는 저용량 고효율로 공간을 동선별로 직접 이동하듯이 감상 할 수 있도록 개선함으로써, 간단한 이미지와 영상 파노라마의 교체 출력으로 이동시에도 360˚ 전 방향 감상이 가능하며, 공간 동선에 정지 시에는 고화질의 이미지 형식으로 출력을 바꾸어 더욱 고품질의 360˚ 전 방향 감상을 가능하게 한다.
본 발명에서는 복잡한 건축물의 경우라도 사용자가 선택한 공간으로 이미지와 다수의 영상 형태의 파노라마를 끊이지 않게 이어서 출력하고 최종의 목적지에는 고화질 이미지로 출력하여 사용자가 어떤 복잡한 공간을 선택하더라도 현실의 공간처럼 이동하게 함으로써 첫째, 사용자가 공간과 공간간의 기능적 분리를 더욱 식별하기 쉽게 하고, 둘째, 공간의 동선별로 이동시에 공간의 방향성을 현실과 같이 인지할 수 있도록 한다. 또한, 최단거리뿐 아니라 사용자가 다양한 경우의 경로를 선택하게 설계하는 것이 가능하다.
이를 위하여 도 9에 도시된 바와 같이 건축 설계 공간탐색 시 가장 유용하고 설계자가 설계 시 고려한 가장 좋은 동선상의 지점과 이동 동선을 선별하여 설계한다. 이렇게 설계 된 지점과 동선을 용도별로 분류한 후 지점은 이미지 파노라마를 생성하고 동선은 영상 파노라마 형식의 파일을 생성한다.
그 다음 준비 된 지점과 동선을 감상자가 어느 곳으로의 이동을 원하여도 이동할 수 있도록 구현된 디지털 공간은 현실 공간의 이동성을 공간설계자의 의도대로 제공한다.
상술한 바와 같이 본 발명은 종래의 온라인 견본주택의 순간이동식 공간설명이 아니라 동선별로 이동하며 실제 기구의 동작 등을 그대로 감상하면서 이동하기 때문에 건축 공간 탐색의 질을 풍부하게 높여 온라인 견본주택의 건축 구매 및 공간 탐색욕구를 충족시킬 수 있는 장점이 있다.
또한, 본 발명은 오픈소스 웹3D(web3D) 알고리즘과 사용자 인터페이스 설계가 가능한 통합개발도구를 사용하므로 독자적인 상업적 솔루션 설계가 가능하다.
이를 통해 플래시 통합개발의 경우라면 온라인상에서는 각 사용자의 PC에서 웹브라우저의 플러그인인 플래시플레이어에서 추가 솔루션의 설치 없이 데이터가 로드됨과 동시에 가상현실이 구현되며, 모바일 기기에서는 운영체제(안드로이드, IOS)에 따라 독립적인 어플리케이션 실행파일로 제작이 가능하여 가벼우면서도 다수의 디바이스에서 통일적인 감상과 솔루션 비용이 최소로 소모되도록 구현될 수 있다. 이는 여타의 OpenGL 감상 플레이어나 DirectX기반의 상용 엔진의 설치나 사용료가 발생하는 점과 대비된다.
이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면, 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 또 다른 다양한 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다.

Claims (4)

  1. 이동 자유도를 개선한 융합형 가상현실 구현 방법에 있어서,
    1) 디지털 가상의 공간을 생성하기 위해 파노라마 카메라를 이용하여 현실 공간의 한 지점에서 360도 각 방향의 이미지를 촬영하여 촬영된 다수의 이미지들을 교정 및 부합시켜 파노라마 이미지를 생성하는 단계와;
    2) 디지털 가상의 공간을 생성하기 위해 파노라마 카메라를 이용하여 현실 공간의 한 지점에서 360도 각 방향의 영상을 촬영하여 촬영된 영상을 압축시켜 파노라마 영상을 생성하는 단계;
    3) 컴퓨터그래픽 소프트웨어를 사용하여 컴퓨터그래픽(CG) 공간을 생성하고, 소프트웨어에서 지원하는 파노라마 카메라를 이용하여 생성된 컴퓨터그래픽(CG) 공간의 한지점에서 360도 각 방향의 파노라마 이미지 및 영상을 생성하는 단계;
    4) 상기 생성된 파노라마 이미지 및 영상을 텍스처 매핑하기 위해 디지털 가상의 공간에 오브젝트를 생성하고, 텍스처 매핑 처리에 필요한 데이터 좌표를 편집하는 단계;
    5) 디지털 가상의 공간에 생성된 오브젝트인 육면체 또는 구체에 상기 파노라마 이미지와 영상을 출력하는 단계;
    6) 디지털 가상의 공간에 카메라를 생성하여 사용자가 제어할 수 있도록 하는 단계;
    7) 사용자가 다른 공간을 선택하였는지 여부를 감지하는 단계; 및
    8) 사용자에 의해 선택된 공간으로 이동시 동선의 이미지 및 영상 파노라마를 최종 도착지점까지 끊김 없이 연속해서 출력하는 단계;를 포함하는 이동 자유도를 개선한 융합형 가상현실 구현 방법.
  2. 제 1 항에 있어서,
    상기 7) 단계에서, 가상현실 공간의 이동 탐색 시 사용자가 이동 할 공간을 선택하는 그래픽 사용자 인터페이스는 2차원 화면상에 구현되거나 또는 3차원 오브젝트 형태로 공간에 위치되도록 구현되는 것을 특징으로 하는 이동 자유도를 개선한 융합형 가상현실 구현 방법.
  3. 제 1 항에 있어서,
    상기 8) 단계에서, 사용자에 의해 선택된 공간으로 이동시 미리 설계된 가상공간의 최종 목적지를 찾아가기 위한 알고리즘을 실행하는 8-1) 단계와;
    현재 위치와 목적지의 두 노드 사이의 여러 가지 경로들 중에서 최소의 단위로 이동할 수 있는 경로를 다층구조, 단층구조, 순환구조로 최적의 경로를 찾는 8-2) 단계; 및
    알고리즘 상의 최종 목적지에 해당하는 이미지 파노라마와 경로상의 복수 영상 파노라마를 출력하는 8-3) 단계;를 포함하는 것을 특징으로 하는 이동 자유도를 개선한 융합형 가상현실 구현 방법.
  4. 제 3 항에 있어서,
    상기 알고리즘은 플로이드-와셜 알고리즘인 것을 특징으로 하는 이동 자유도를 개선한 융합형 가상현실 구현 방법.
PCT/KR2013/006082 2012-07-13 2013-07-09 이동 자유도를 개선한 융합형 가상현실 구현 방법 WO2014010909A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0076431 2012-07-13
KR1020120076431A KR101212231B1 (ko) 2012-07-13 2012-07-13 이동 자유도를 개선한 융합형 가상현실 구현 방법

Publications (1)

Publication Number Publication Date
WO2014010909A1 true WO2014010909A1 (ko) 2014-01-16

Family

ID=47907641

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/006082 WO2014010909A1 (ko) 2012-07-13 2013-07-09 이동 자유도를 개선한 융합형 가상현실 구현 방법

Country Status (2)

Country Link
KR (1) KR101212231B1 (ko)
WO (1) WO2014010909A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112689854A (zh) * 2018-11-30 2021-04-20 多玩国株式会社 动画合成装置、动画合成方法以及记录介质
CN114979457A (zh) * 2021-02-26 2022-08-30 华为技术有限公司 一种图像处理方法及相关装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101340598B1 (ko) * 2013-06-03 2013-12-11 송헌주 3차원 평면 타일배열 텍스처 매핑을 이용한 동영상기반 다시점 및 파노라마 가상현실 뷰어 제작 방법
KR101588935B1 (ko) * 2013-11-21 2016-01-26 오테리 테크놀러지스 인코포레이티드 가상현실 이미지 프레젠테이션 및 3d 공간 내에서의 컨트롤을 위한 3d 기하학 데이터의 이용방법
KR101652753B1 (ko) * 2015-09-11 2016-09-01 주식회사 마이다스아이티 3차원 파노라마 가상현실 이미지 제공방법 및 이를 이용한 제공시스템
US10887577B2 (en) 2016-05-26 2021-01-05 Lg Electronics Inc. Method for transmitting 360-degree video, method for receiving 360-degree video, apparatus for transmitting 360-degree video, and apparatus for receiving 360-degree video
US20180075652A1 (en) * 2016-09-13 2018-03-15 Next Aeon Inc. Server and method for producing virtual reality image about object
KR101820359B1 (ko) 2016-10-21 2018-01-19 서울과학기술대학교 산학협력단 360도 영상 전송 방법 및 장치
US11363248B2 (en) 2017-03-17 2022-06-14 Lg Electronics Inc. Method and device for transmitting region information of 360-degree video
KR102019880B1 (ko) * 2017-11-23 2019-09-09 전자부품연구원 분산 가상 카메라를 이용한 게임 내 360 vr 영상 획득 시스템 및 방법
KR102559011B1 (ko) * 2017-12-06 2023-07-24 주식회사 케이티 가상 현실 체험 서비스를 제공하는 방법, 단말 및 서버
CN108200330A (zh) * 2017-12-11 2018-06-22 虚拟现实(深圳)智能科技有限公司 双8k图像虚拟现实处理方法及系统
KR102300383B1 (ko) 2019-11-07 2021-09-09 한국과학기술원 2차원 가상 이미지 공간 탐색 장치 및 이를 이용한 가상 이미지 공간 탐색 방법
CN111161426B (zh) * 2019-12-31 2023-08-01 中航华东光电有限公司 基于全景图像的三维显示方法和系统
KR102394329B1 (ko) * 2020-11-13 2022-05-04 김형식 영상 재생 시스템 및 영상 재생 방법
KR102574677B1 (ko) * 2021-12-14 2023-09-06 엘아이지넥스원 주식회사 시점 이동에 따른 연속적인 360도 가상현실 영상 획득 및 재현 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100735676B1 (ko) * 2006-02-24 2007-07-06 조현덕 가상현실 모델하우스 운영시스템 및 운영방법
KR20090000729A (ko) * 2007-03-27 2009-01-08 경북대학교 산학협력단 웹 기반 사이버 모델 하우스 구현 시스템 및 그 방법
KR20110120001A (ko) * 2010-04-28 2011-11-03 대림산업 주식회사 이동형 디지털 모델 하우스

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100429281B1 (ko) 2002-02-04 2004-04-29 김정태 인터넷을 이용한 주거 소음 환경 시뮬레이터

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100735676B1 (ko) * 2006-02-24 2007-07-06 조현덕 가상현실 모델하우스 운영시스템 및 운영방법
KR20090000729A (ko) * 2007-03-27 2009-01-08 경북대학교 산학협력단 웹 기반 사이버 모델 하우스 구현 시스템 및 그 방법
KR20110120001A (ko) * 2010-04-28 2011-11-03 대림산업 주식회사 이동형 디지털 모델 하우스

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112689854A (zh) * 2018-11-30 2021-04-20 多玩国株式会社 动画合成装置、动画合成方法以及记录介质
CN114979457A (zh) * 2021-02-26 2022-08-30 华为技术有限公司 一种图像处理方法及相关装置
CN114979457B (zh) * 2021-02-26 2023-04-07 华为技术有限公司 一种图像处理方法及相关装置

Also Published As

Publication number Publication date
KR101212231B1 (ko) 2012-12-13

Similar Documents

Publication Publication Date Title
WO2014010909A1 (ko) 이동 자유도를 개선한 융합형 가상현실 구현 방법
WO2018177314A1 (zh) 全景图像的展示控制方法、装置及存储介质
WO2009102138A2 (ko) 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과 증강현실을 이용한 상호작용방법
WO2015174729A1 (ko) 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
WO2011093581A2 (ko) 비전 영상 정보 저장 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
WO2011031026A2 (ko) 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법
CN111026261A (zh) 一种旅游景点ar互动展示的方法
US11044398B2 (en) Panoramic light field capture, processing, and display
US20190102135A1 (en) Scalable interaction with multi-displays
WO2020084951A1 (ja) 画像処理装置および画像処理方法
US20030038814A1 (en) Virtual camera system for environment capture
Bradley et al. Image-based navigation in real environments using panoramas
US10732706B2 (en) Provision of virtual reality content
WO2020215789A1 (zh) 虚拟画笔实现方法、装置和计算机可读存储介质
WO2019216528A1 (ko) 2.5 차원화를 이용한 가상 전시 공간 제공 방법
KR102522892B1 (ko) 가상 시점 영상을 합성하기 위한 입력 영상을 제공하는 카메라 선별 방법 및 장치
US10482671B2 (en) System and method of providing a virtual environment
KR102655908B1 (ko) 적층 가능한 라이트필드 기반 가상공간 구축 방법 및 장치
Peake et al. The virtual experiences portals—a reconfigurable platform for immersive visualization
WO2020050516A1 (ko) 2.5차원 가상 전시 공간을 이용한 3차원 vr 데이터 생성 방법
WO2020262725A1 (ko) 딥 러닝을 이용한 3차원 물체 인식에 기초하여 증강 현실 정보를 제공하는 방법 및 이를 이용한 시스템
Woodward et al. Case Digitalo-A range of virtual and augmented reality solutions in construction application
WO2024101776A1 (ko) 3차원 빌딩 모델 및 도로 모델을 이용한 3차원 거리뷰 모델 생성 방법 및 시스템
KR102516780B1 (ko) 사용자 업로드 vr 시스템
Vanijja et al. A stereoscopic image-based approach to virtual environment navigation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13816617

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13816617

Country of ref document: EP

Kind code of ref document: A1