KR100383015B1 - An apparatus and method for displaying three-dimensional virtual space based on real images - Google Patents

An apparatus and method for displaying three-dimensional virtual space based on real images Download PDF

Info

Publication number
KR100383015B1
KR100383015B1 KR10-2002-0008817A KR20020008817A KR100383015B1 KR 100383015 B1 KR100383015 B1 KR 100383015B1 KR 20020008817 A KR20020008817 A KR 20020008817A KR 100383015 B1 KR100383015 B1 KR 100383015B1
Authority
KR
South Korea
Prior art keywords
subframes
subframe
image
images
layer
Prior art date
Application number
KR10-2002-0008817A
Other languages
Korean (ko)
Other versions
KR20020024274A (en
Inventor
박배억
Original Assignee
박배억
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박배억 filed Critical 박배억
Priority to KR10-2002-0008817A priority Critical patent/KR100383015B1/en
Publication of KR20020024274A publication Critical patent/KR20020024274A/en
Application granted granted Critical
Publication of KR100383015B1 publication Critical patent/KR100383015B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 (a) 원근감을 부여하는 방향으로 카메라를 이동시키면서 실제 공간을 연속적이면서도 간헐적으로 촬영하는 단계; (b) 상기 촬영된 실제 공간 이미지들이 연속적인 이미지를 구성하도록 각각 그 일부를 절단하여 편집하는 단계; (c) 메인프레임의 내외부에 상호 소정의 축소율을 가지도록 상기 편집된 이미지들에 대응하는 복수의 연속적인 서브프레임들을 생성시키는 단계; (d) 상기 대응하는 편집된 이미지들을 상기 소정의 축소율에 따라 상기 서브프레임들에 각각 삽입하여 상호 원근감을 갖는 연속적인 이미지를 형성하도록 하는 단계; 및 (e) 상기 서브프레임들을 이동시킴과 동시에 상기 서브프레임들과 대응 이미지들의 크기에 동적변화를 부여하는 단계;를 포함하는 실제 공간 이미지를 기반으로 한 3차원 가상현실공간 구현방법과 그러한 장치에 관한 것이다.The present invention includes the steps of (a) photographing the actual space continuously and intermittently while moving the camera in a direction giving perspective; (b) cutting and editing a portion of each of the photographed real spatial images to form a continuous image; (c) generating a plurality of consecutive subframes corresponding to the edited images so as to have a predetermined reduction ratio in and out of the mainframe; (d) inserting the corresponding edited images into the subframes according to the predetermined reduction ratio, respectively, to form a continuous image having a mutual perspective; And (e) moving the subframes and simultaneously applying dynamic changes to the sizes of the subframes and corresponding images. It is about.

Description

실제 공간 이미지를 기반으로 한 3차원 가상현실공간 구현방법 및 그 장치 {An apparatus and method for displaying three-dimensional virtual space based on real images}An apparatus and method for displaying three-dimensional virtual space based on real images

본 발명은 3차원 가상현실공간을 구현하는 방법 및 장치에 관한 것으로서, 보다 상세하게는 원근감을 가지는 2차원 실제 이미지를 이용하여 효과적으로 3차원 가상현실공간을 디스플레이할 수 있는 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for implementing a 3D virtual reality space, and more particularly, to a method and apparatus for effectively displaying a 3D virtual space using a 2D real image having a perspective. .

오늘날, 기본적으로 서버와 브라우저(browsers)로 구성되는 월드와이드웹(World Wide Web)은 텍스트(text), 이미지 및 음향을 포함하는 다양한 형태의 멀티미디어(multimedia) 데이타를 제공한다. 사용자는 자신의 클라이언트단말기에 설치된 브라우저를 이용하여 월드와이드웹을 '넷서핑(net surfing)'하여 다양한 정보소스를 획득하거나 소위 '쇼핑몰'에서 원하는 물건을 구매하기도 한다.Today, the World Wide Web, which consists essentially of servers and browsers, provides various forms of multimedia data, including text, images, and sound. A user may "net surf" the World Wide Web using a browser installed on his or her client terminal to obtain various information sources or purchase desired items in a so-called 'shopping mall'.

최근, 월드와이드웹은 3차원 가상공간을 표현하는 기술언어(description language)의 개발과 발전으로 그 응용이 더욱 확대되고 있다. 예를 들어, 사용자는 마치 현실세계에 있는 것처럼 가상공간 속의 거리를 걷거나 상점을 방문하여 물건을 구매할 수 있다. 이러한 3차원 가상공간의 실현을 가능케하는 소위 VRML(Virtual reality modeling language)에 대한 상세한 설명은 마크(Mark Pesce)가 저술한 "Learn About VRML: Building and Browsing Three-Dimensional Computer space"[1st ed. 1996.3.25, Prentis Hall 발행]등 에 잘 나타나 있다.Recently, the application of the World Wide Web has been further expanded by the development and development of a description language for representing a three-dimensional virtual space. For example, a user may purchase a product by walking in a virtual space or visiting a store as if in a real world. A detailed description of the so-called virtual reality modeling language (VRML) that enables the realization of such a three-dimensional virtual space is described by Mark Pesce, "Learn About VRML: Building and Browsing Three-Dimensional Computer Space" [1st ed. March 25, 1996, published by Prentis Hall].

이른 바, "HTML(Hyper text markup language)의 3차원 버젼"이라고 불리우는 VRML은 1.0버젼에서 X3D에 이르기까지 다양하게 발전되어 왔으며, 그 중의 일부는 월드와이드웹 상에서 상업적으로 실현되고 있다.So-called VRML, called the "three-dimensional version of Hypertext markup language", has evolved from 1.0 to X3D, some of which are commercially available on the World Wide Web.

그러나, VRML을 이용해 웹사이트를 구축하기 위해서는 3차원 랜더링(3D Rendering)기술이나 텍스쳐 매핑(Texture mapping)기술과 같은 고난도의 기술들이 요구된다. 또한, VRML 콘텐츠는 별도의 VRML브라우저나 플러그 인 프로그램을 통해 디스플레이될 수 있다. 더욱이, 웹을 통해 실시간 랜더링을 제공하는 데에는 클라이언트 컴퓨터들의 성능이 낮다는 점을 고려할 때 여전히 한계를 지니고 있다.However, in order to build a website using VRML, advanced technologies such as 3D rendering technology and texture mapping technology are required. In addition, the VRML content may be displayed through a separate VRML browser or a plug-in program. Moreover, there is still a limit to the low performance of client computers for providing real-time rendering over the web.

교통, 관광, 지리정보 등과 같이 경우에 따라 3차원 가상현실공간의 구현은 실제 공간을 기반으로 이루어질 필요가 있다. 이러한 실제 공간을 3차원 가상현실공간으로 옮기는 전형적인 방법은 광학적 카메라로 촬영한 이미지를 단순히 확대하거나 축소하는 것이다. 이것은 3차원 가상공간의 풍부한 역동성과 활용성을 뒷받침하지 못하며, 확대에 따른 이미지 해상도 저하라는 문제점을 가져온다.In some cases, such as traffic, tourism, and geographic information, the implementation of a 3D virtual reality space needs to be based on real space. The typical way of moving this real space into a 3D virtual reality space is to simply enlarge or reduce the image taken by the optical camera. This does not support the rich dynamics and utilization of 3D virtual space, and brings about the problem of deterioration of image resolution due to enlargement.

실제 공간에 기반을 둔 3차원 가상공간을 구현하는 또 다른 방법은 사방으로 촬영한 실제 이미지들을 서로 합성하여 파노라마 형식으로 디스플레이하는 것이다. 그러나, 이것은 촬영된 이미지 상에 내재된 광학적 원근감에 한정되어 공간을 표현하며, 전진과 후진에 따른 원근감을 가진 3차원 가상공간을 제대로 구현할 수 없는 문제점을 가지고 있다.Another way of realizing a three-dimensional virtual space based on real space is to synthesize real images taken from all directions and display them in a panorama format. However, this represents a space limited to the optical perspective embedded in the photographed image, and has a problem in that a three-dimensional virtual space having a perspective according to forward and backward cannot be properly implemented.

본 발명은 상기와 같은 문제점을 감안하여 창안된 것으로서 카메라로 촬영된 2차원 이미지를 사용하여 3차원 가상공간을 용이하게 구현할 수 있는 장치와 그 방법을 제공하는데 목적이 있다.The present invention has been made in view of the above problems, and an object of the present invention is to provide an apparatus and a method for easily implementing a three-dimensional virtual space using a two-dimensional image photographed by a camera.

본 발명에 따르면 복잡한 랜더링 기술이나 대용량의 데이터 전송없이도 3차원 가상공간을 구현할 수 있으므로 월드와이드웹을 통한 쇼핑몰, 지리정보제공 등 다양한 응용이 가능하다.According to the present invention, since a three-dimensional virtual space can be implemented without complicated rendering technology or a large amount of data transmission, various applications such as shopping malls and geographic information can be provided through the World Wide Web.

도 1은 본 발명의 바람직한 실시예에 따라 현실 공간 이미지를 기반으로 3차원 가상현실공간을 구현하는 과정을 개략적으로 보여주는 흐름도이다.1 is a flowchart schematically illustrating a process of implementing a 3D virtual reality space based on a reality space image according to a preferred embodiment of the present invention.

도 2a는 본 발명의 바람직한 실시예에 따라 정면 카메라의 가로화각에 따른 촬영 영역의 예를 도시한 도면이다.2A illustrates an example of a photographing area according to a horizontal angle of view of a front camera according to a preferred embodiment of the present invention.

도 2b 및 도2c는 본 발명의 바람직한 실시예에 따라 측면 카메라의 가로화각에 따른 촬영 영역의 예를 도시한 도면이다.2B and 2C illustrate examples of a photographing area according to a horizontal angle of view of a side camera according to a preferred embodiment of the present invention.

도 2d는 상기 정면 카메라와 측면 카메라를 조합하여 각각의 가로화각에 따른 촬영 영역의 예를 보인 도면이다.2D illustrates an example of a photographing area according to each horizontal angle of view by combining the front camera and the side camera.

도 3a는 본 발명의 바람직한 실시예에 따라 정면 카메라가 전진하면서 실제공간을 연속적이면서도 간헐적으로 촬영하는 예를 보여주는 도면이다.3A is a diagram illustrating an example of continuously and intermittently photographing a real space while the front camera moves forward according to a preferred embodiment of the present invention.

도 3b는 본 발명의 바람직한 실시예에 따라 측면 카메라가 전진하면서 실제공간을 연속적이면서도 간헐적으로 촬영하는 예를 보여주는 도면이다.3B is a view showing an example of continuously and intermittently photographing a real space while the side camera moves forward according to a preferred embodiment of the present invention.

도 4는 측면벽과 천정, 바닥 그리고 정면벽을 가지는 복도를 도식적으로 그린 도면이다.4 is a schematic drawing of a corridor with side walls, ceilings, floors and front walls.

도 5a 내지 도 5d는 본 발명의 바람직한 실시예에 따라, 측면 카메라가 전진하면서 연속적이면서도 간헐적으로 촬영한 실제공간의 측면 이미지를 위치에 따라 각각 구분하여 나타낸 도면이다.5A to 5D are diagrams illustrating side images of a real space photographed continuously and intermittently while the side camera is advanced according to a preferred embodiment of the present invention.

도 6a 내지 도 6g는 본 발명의 바람직한 실시예에 따라, 정면 카메라가 전진하면서 연속적이면서도 간헐적으로 촬영한 실제공간의 정면 이미지를 위치에 따라 각각 구분하여 나타낸 도면이다.6A to 6G are diagrams illustrating front images of a real space photographed continuously and intermittently while the front camera is advanced according to a preferred embodiment of the present invention.

도 7a 및 도 7b는 본 발명의 바람직한 실시예에 따라, 촬영된 측면 소스이미지를 편집하여 측면 프레임 이미지를 생성하는 예를 보여주는 도면이다.7A and 7B illustrate an example of generating a side frame image by editing a captured side source image according to a preferred embodiment of the present invention.

도 8a 및 도 8b는 본 발명의 바람직한 실시예에 따라, 촬영된 정면 소스이미지를 편집하여 정면 프레임 이미지를 생성하는 예를 보여주는 도면이다.8A and 8B illustrate an example of generating a front frame image by editing a photographed front source image according to a preferred embodiment of the present invention.

도 9는 본 발명의 바람직한 실시예에 따른 메인프레임과 서브프레임의 구성을 도식적으로 나타낸 도면이다.9 is a diagram schematically showing a configuration of a mainframe and a subframe according to an embodiment of the present invention.

도 10은 본 발명의 바람직한 실시예에 따라, 측면 프레임 이미지와 측면 서브프레임의 대응관계를 나타내는 도면이다.FIG. 10 is a diagram illustrating a correspondence relationship between side frame images and side subframes according to an exemplary embodiment of the present invention. FIG.

도 11은 본 발명의 바람직한 실시예에 따라, 정면 프레임 이미지와 정면 서브프레임의 대응관계를 나타내는 도면이다.11 is a diagram illustrating a correspondence relationship between a front frame image and a front subframe according to a preferred embodiment of the present invention.

도 12는 본 발명의 바람직한 실시예에 따른 3차원 가상현실공간 구현장치의 개략적인 구성을 나타낸 블럭도이다.12 is a block diagram showing a schematic configuration of an apparatus for implementing a three-dimensional virtual reality space according to an embodiment of the present invention.

도 13은 본 발명의 바람직한 실시예에 따라 3차원 가상현실공간을 구현하는 서버와 클라이언트 시스템의 구성을 개략적으로 나타낸 도면이다.FIG. 13 is a diagram schematically illustrating a configuration of a server and a client system implementing a 3D virtual reality space according to an exemplary embodiment of the present invention.

도 14는 본 발명의 바람직한 실시예에 따라 프레임 데이터의 예를 보인 도면이다.14 shows an example of frame data according to a preferred embodiment of the present invention.

도 15는 본 발명의 바람직한 실시예에 따라 이미지 데이터의 예를 보인 도면이다.15 illustrates an example of image data according to a preferred embodiment of the present invention.

도 16은 본 발명의 바람직한 실시예에 따른 3차원 가상현실공간 콘텐츠 파일을 디스플레이하는 방법을 나타내는 흐름도이다.16 is a flowchart illustrating a method of displaying a 3D virtual reality content file according to a preferred embodiment of the present invention.

도 17a 내지 도 17e는 본 발명의 또 다른 측면에 따른 복합 3차원 가상현실공간의 구현방법을 설명하기 위해 복합 3차원 실제 공간을 도식적으로 나타낸 평면도이다.17A to 17E are plan views schematically illustrating a composite three-dimensional real space to explain a method of implementing the composite three-dimensional virtual reality space according to another aspect of the present invention.

도 18a 내지 도 18e는 본 발명의 또 다른 측면에 따라 위 도 17a 내지 도 17e에 각각 대응하는 서브프레임과 프레임 이미지의 예를 보인 도면이다.18A to 18E illustrate examples of subframes and frame images corresponding to FIGS. 17A to 17E, respectively, according to another aspect of the present invention.

상기와 같은 목적을 달성하기 위해 본 발명에 따른 3차원 가상현실공간 구현방법은, (a) 원근감을 부여하는 방향으로 카메라를 이동시키면서 실제 공간을 연속적이면서도 간헐적으로 촬영하는 단계; (b) 상기 촬영된 실제 공간 이미지들이 연속적인 이미지를 구성하도록 각각 그 일부를 절단하여 편집하는 단계; (c) 메인프레임의 내외부에 상호 소정의 축소율을 가지도록 상기 편집된 이미지들에 대응하는 복수의 연속적인 서브프레임들을 생성시키는 단계; (d) 상기 대응하는 편집된 이미지들을 상기 소정의 축소율에 따라 상기 서브프레임들에 각각 삽입하여 상호 원근감을 갖는 연속적인 이미지를 형성하도록 하는 단계; 및 (e) 상기 서브프레임들을 이동시킴과 동시에 상기 서브프레임들과 대응 이미지들의 크기에 동적변화를 부여하는 단계;를 포함한다.In order to achieve the above object, a three-dimensional virtual reality implementation method according to the present invention comprises the steps of: (a) photographing the real space continuously and intermittently while moving the camera in a direction to give a perspective; (b) cutting and editing a portion of each of the photographed real spatial images to form a continuous image; (c) generating a plurality of consecutive subframes corresponding to the edited images so as to have a predetermined reduction ratio in and out of the mainframe; (d) inserting the corresponding edited images into the subframes according to the predetermined reduction ratio, respectively, to form a continuous image having a mutual perspective; And (e) moving the subframes and simultaneously applying a dynamic change to the sizes of the subframes and the corresponding images.

바람직하게, 상기 단계(a)에서, 실제 공간은 정면을 촬영하는 정면카메라와 측면을 촬영하는 측면카메라에 의해 촬영된다.Preferably, in step (a), the actual space is photographed by the front camera photographing the front and the side camera photographing the side.

바람직하게, 상기 서브프레임들은, 상기 메인프레임 내부에 위치하며 상기 정면카메라에 의해 촬영된 이미지들이 대응되는 정면 서브프레임들과; 상기 메인프레임 바깥에 위치하며 상기 측면카메라에 의해 촬영된 이미지들이 대응되는 측면 서브프레임들을 포함한다.Preferably, the subframes include: front subframes located inside the main frame and to which images taken by the front camera correspond; Positioned outside the mainframe and includes the side subframes corresponding to the images taken by the side camera.

또한, 상기 정면 서브프레임들은 상기 메인프레임의 좌측단, 우측단, 상단 및 하단으로부터 상호 소정 축소율의 관계를 가지고 종방향 및 횡방향으로 배열된 복수개의 막대모양의 프레임들로 구성되고, 상기 측면 서브프레임들은 상호 소정 축소율의 관계를 가지고 상기 메인프레임에 대해 종방향으로 배열된 복수개의 막대모양의 프레임들로 구성된다.The front subframes may include a plurality of rod-shaped frames arranged in a longitudinal direction and a transverse direction with a predetermined reduction ratio from the left end, the right end, the upper end, and the lower end of the main frame. The frames are composed of a plurality of rod-shaped frames arranged longitudinally with respect to the main frame with a relation of a predetermined reduction ratio.

본 발명에 따르면, 상기 촬영된 실제 공간의 정면이미지들 각각은 그 좌측단, 우측단, 상단 및 하단이 종방향 및 횡방향으로 일정한 크기의 막대모양으로 절단되어 상기 정면 서브프레임들에 상기 소정 축소율에 따라 축소되어 대응되고, 상기 촬영된 실제 공간의 측면이미지들 각각은 그 좌측단이 종방향으로 일정한 크기의 막대모양으로 절단되어 상기 측면 서브프레임들에 상기 소정 축소율에 따라 축소되어 대응된다.According to the present invention, each of the front images of the photographed real space has its left end, right end, top and bottom cut into a bar shape having a constant size in the longitudinal direction and the transverse direction, so that the predetermined reduction ratio in the front subframes. Each of the side images of the photographed real space has a left end cut into a bar shape having a constant size in the longitudinal direction and is reduced to correspond to the side subframes according to the predetermined reduction ratio.

본 발명의 일 실시예에 따르면, 상기 단계(e)에서, 상기 정면 서브프레임들 중에서 하위 서브프레임들이 상위 서브프레임의 위치로 이동하면서 그 상위 서브프레임의 크기로 확대된다.According to an embodiment of the present invention, in step (e), the lower subframes among the front subframes are enlarged to the size of the upper subframe while moving to the position of the upper subframe.

본 발명의 다른 실시예에 따르면, 상기 단계(e)에서, 상기 정면 서브프레임 중 어느 일측 서브프레임의 일부가 상기 메인프레임 바깥으로 밀려나고, 그에 따라 나머지 정면 서브프레임들이 수평방향으로 위치이동하는 동시에, 상기 정면 서브프레임의 타측 서브프레임에 이어서 측면 서브프레임이 상기 메인프레임 내부로 진입한다.According to another embodiment of the present invention, in the step (e), a portion of one of the front subframes is pushed out of the main frame, whereby the remaining front subframes are moved in the horizontal direction. Next to the other subframe of the front subframe, the side subframe enters into the mainframe.

본 발명의 또 다른 바람직한 실시예에 따르면, (a) 원근감을 부여하는 방향으로 카메라를 이동시키면서 실제 공간을 연속적이면서도 간헐적으로 촬영하여 소스이미지들을 생성하는 단계; (b) 상기 소스이미지들 각각의 일부를 절단하여 상호 연속적인 이미지를 구성하는 프레임 이미지들을 생성하는 단계; (c) 상기 프레임 이미지들에 객체성을 부여하여 상호 이미지가 연속적이 되도록 소정의 축소율을 가지는 복수의 서브프레임들을 생성시키는 단계; 및 (d) 상기 서브프레임들을 이동시킴과 동시에 그 서브프레임들과 대응 이미지들의 크기를 차상위 서브프레임 또는 차하위 서브프레임 크기로 동적변화를 부여하는 단계;를 포함하는 실제 공간 이미지를 기반으로 한 3차원 가상현실공간 구현방법이 제공된다.According to another preferred embodiment of the present invention, the method comprises: (a) generating source images by continuously and intermittently photographing a real space while moving a camera in a direction giving perspective; (b) cutting part of each of the source images to generate frame images constituting a mutually continuous image; (c) generating a plurality of subframes having a predetermined reduction ratio so that object images are given to the frame images so that mutual images are continuous; And (d) moving the subframes and simultaneously applying dynamic sizes of the subframes and the corresponding images to the next higher subframe or the next lower subframe size. A dimensional virtual reality space implementation method is provided.

본 발명의 또 다른 바람직한 실시예에 따르면, (a) 원근감을 부여하는 방향으로 카메라를 이동시키면서 실제 공간을 연속적이면서도 간헐적으로 촬영하여 소스이미지들을 생성하는 단계; (b) 상기 실제 공간에서 공간 원근감을 무시할 수 있는 영역을 촬영하여 레이어 이미지들을 생성하는 단계; (c) 상기 소스이미지들 각각의 일부를 절단하여 상호 연속적인 이미지를 구성하는 프레임 이미지들을 생성하는 단계; (d) 메인프레임의 내외부에 상호 소정의 축소율을 가지도록 상기 프레임 이미지들에 대응하는 복수의 연속적인 서브프레임들과 상기 레이어 이미지들에 대응하는 레이어 서브프레임들을 생성시키는 단계; (e) 상기 프레임 이미지들을 상기 소정의 축소율에 따라 상기 서브프레임들에 삽입하고, 상기 레이어 이미지들을 상기 레이어 서브프레임들에 각각 삽입하여 상호 원근감을 갖는 연속적인 이미지를 형성하도록 하는 단계; 및 (f) 상기 서브프레임들을 이동시켜 그 서브프레임들과 프레임 이미지들의 크기를 차상위 서브프레임 또는 차하위 서브프레임 크기가 되도록 하는 동시에, 상기 레이어 서브프레임들을 확대/축소 또는 드러남/숨김으로써 상기 레이어 이미지들이 확대/축소되거나 그 이미지의 일부가 드러나도록/숨겨지도록 동적변화를 부여하는 단계;를 포함하는 실제 공간 이미지를 기반으로 한 3차원 가상현실공간 구현방법이 제공된다.According to another preferred embodiment of the present invention, the method comprises: (a) generating source images by continuously and intermittently photographing a real space while moving a camera in a direction giving perspective; (b) generating layer images by photographing an area in which the spatial perspective can be ignored in the real space; (c) cutting part of each of the source images to generate frame images constituting a mutually continuous image; (d) generating a plurality of consecutive subframes corresponding to the frame images and layer subframes corresponding to the layer images so as to have a predetermined reduction ratio in and out of the main frame; (e) inserting the frame images into the subframes according to the predetermined reduction ratio, and inserting the layer images into the layer subframes, respectively, to form a continuous image having a mutual perspective; And (f) moving the subframes so that the sizes of the subframes and the frame images are the next higher subframe or the next lower subframe size, and at the same time, the layer subframes are enlarged / reduced or hidden / hidden. A method of implementing a 3D virtual reality space is provided based on a real space image including a step of providing a dynamic change such that they are enlarged / reduced or a part of the image is exposed / hidden.

바람직하게, 상기 단계(f)에서, 상기 정면 서브프레임들 중에서 하위 서브프레임들이 상위 서브프레임의 위치로 이동하면서 그 상위 서브프레임의 크기로 확대되고, 상기 레이어 서브프레임 및 레이어 이미지가 확대된다.Preferably, in step (f), the lower subframes among the front subframes are enlarged to the size of the upper subframe while moving to the position of the upper subframe, and the layer subframe and the layer image are enlarged.

더욱 바람직하게, 상기 단계(f)에서, 상기 정면 서브프레임들 중에서 하위 서브프레임들이 상위 서브프레임의 위치로 이동하면서 그 상위 서브프레임의 크기로 확대되고, 제1 레이어 서브프레임 및 그 레이어 이미지가 확대되는 동시에, 제2 레이어 서브프레임 및 그 레이어 이미지가 적어도 상기 서브프레임들 및/또는 제1 레이어 서브프레임 사이로 나타난다.More preferably, in step (f), the lower subframes among the front subframes are enlarged to the size of the upper subframe while moving to the position of the upper subframe, and the first layer subframe and the layer image are enlarged. At the same time, a second layer subframe and its layer image appear between at least the subframes and / or the first layer subframe.

또한, 더욱 바람직하게, 상기 단계(f)에서, 상기 정면 서브프레임 중 어느 일측 서브프레임의 일부가 상기 메인프레임 바깥으로 밀려나고, 그에 따라 나머지 정면 서브프레임들 및 제1 레이어 서브프레임이 수평방향으로 위치이동하는 동시에, 제2 레이어 서브프레임 및 그 레이어 이미지가 메인프레임 내부로 진입하게 된다.Also, more preferably, in step (f), a part of any one of the front subframes is pushed out of the main frame, so that the remaining front subframes and the first layer subframe in the horizontal direction. At the same time, the second layer subframe and the layer image enter the main frame.

본 발명의 또 다른 측면에 따르면, 실제 공간을 연속적이면서도 간헐적으로 촬영한 소스이미지를 연속적인 이미지를 이루도록 절단하여 상호 소정의 축소율을 가지도록 복수의 서브프레임에 삽입시키도록 프로그램된 3차원 가상현실공간 파일을 이용하여 3차원 가상현실공간을 구현하는 장치로서,According to another aspect of the present invention, a three-dimensional virtual reality space programmed to cut a real image of a continuous and intermittently taken source image to form a continuous image and insert it into a plurality of subframes having a predetermined reduction ratio. An apparatus for implementing a 3D virtual reality space using a file,

입력장치; 표시장치; 상기 프로그램된 3차원 가상현실공간 파일을 해석하고 상기 입력장치를 통해 입력되는 사용자의 이벤트 신호를 해석하여 상기 서브프레임과 그 이미지의 생성 및 동적변환을 지시하는 해석부; 및 상기 해석부의 지시에 따라 서브프레임을 생성하고 그 서브프레임에 대응하는 이미지를 제공하여 상기 표시장치에 디스플레이하는 동시에, 상기 이벤트 신호 해석 결과 신호에 따라 상기 서브프레임들을 이동시켜 그 서브프레임들과 이미지들의 크기를 차상위 서브프레임 또는 차하위 서브프레임 크기가 되도록 동적변환을 부여하는 실행부를 포함하는 3차원 가상현실공간 구현장치가 제공된다.Input device; Display device; An analysis unit for interpreting the programmed 3D virtual reality file and interpreting an event signal of a user input through the input device to instruct generation and dynamic conversion of the subframe and its image; And generating a subframe according to the instruction of the analysis unit, providing an image corresponding to the subframe, displaying the image on the display device, and moving the subframes according to the event signal analysis result signal to move the subframes and the image. Provided is a three-dimensional virtual reality implementation apparatus including an execution unit for giving a dynamic transform so that the size of the two sub-frame or the next sub-frame size.

바람직하게, 상기 해석부는, HTML계열의 언어로 프로그램된 3차원 가상공간 파일을 해석하는 HTML해석부; 및 상기 HTML문서 내에 첨가된 자바스크립트를 실행하기 위해 이를 해석하는 스크립트 해석부를 포함하고,Preferably, the analysis unit, HTML analysis unit for analyzing the three-dimensional virtual space files programmed in the language of the HTML series; And a script interpreter that interprets the JavaScript to execute the JavaScript added in the HTML document.

상기 실행부는, 디스플레이상의 메인프레임 내에 서브프레임을 생성하고 상기 해석부로부터의 이벤트 결과 신호에 따라 서브프레임의 동적 변환을 수행하는 프레임 실행부; 상기 서브프레임에 대해 이미지를 제공하고 상기 서브프레임의 동적 변환에 따라 그에 대응하는 이미지를 변환시키는 프레임 이미지 관리부; 및 기 서브프레임 내에 레이어 이미지를 삽입하고 서브프레임 변환에 따른 레이어 이미지의 변환을 제공하는 레이어 이미지 관리부;를 포함한다.The execution unit may include: a frame execution unit generating a subframe in a main frame on the display and performing dynamic conversion of the subframe according to an event result signal from the analysis unit; A frame image manager which provides an image for the subframe and converts an image corresponding to the subframe according to the dynamic conversion of the subframe; And a layer image manager inserting the layer image into the subframe and providing a transformation of the layer image according to the subframe transformation.

본 발명의 또 다른 측면에 따르면, 실제공간을 연속적이면서 간헐적으로 촬영한 소스이미지를 연속적인 이미지를 이루도록 절단하여 상호 소정의 축소율을 가지도록 복수의 서브프레임에 삽입시키도록 프로그램된 3차원 가상현실공간 파일을 이용한 3차원 가상현실공간 구현방법으로서, 상기 프로그램된 3차원 가상현실공간 파일을 해석하여 표시장치에 서브프레임을 생성하고 그 서브프레임에 대응하는 이미지를 제공하여 디스플레이하는 단계; 입력장치를 통해 전진, 후진, 좌로 전환, 우로 전환을 포함하는 이벤트 중에서 어느 하나를 입력하는 단계; 및 상기 이벤트 입력에 따라 상기 서브프레임들을 이동시켜 그 서브프레임들과 이미지들의 크기를 차상위 서브프레임 또는 차하위 서브프레임 크기가 되도록 동적변환을 부여하는 단계;를 포함하는 3차원 가상현실공간 구현방법이 제공된다.According to another aspect of the present invention, a three-dimensional virtual reality space programmed to cut a real image of a continuous and intermittently taken source image into a plurality of subframes by cutting them into a continuous image and having a predetermined reduction ratio to each other. A method of implementing a 3D virtual reality space using a file, the method comprising: generating a subframe on a display device by analyzing the programmed 3D virtual reality space file, and providing and displaying an image corresponding to the subframe; Inputting any one of an event including forward, backward, leftward switching, and rightward switching through an input device; And moving the subframes according to the event input and applying a dynamic transformation to adjust the size of the subframes and the images to be the next higher subframe or the next lower subframe size. Is provided.

이하 첨부된 도면들을 참조로 본 발명의 바람직한 실시예들을 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the specification and claims should not be construed as having a conventional or dictionary meaning, and the inventors should properly explain the concept of terms in order to best explain their own invention. Based on the principle that can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention. Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.

<단순 3차원계에서의 기본 원리>Basic Principle in Simple 3D System

본 발명에 따른 3차원 가상공간은 실제에 가까운 원근감을 가지는데, 이것은 실제공간을 광학적 카메라로 촬영하여 그 이미지들을 편집하고 디지털적인 동적 크기 변화를 부여함으로써 달성된다. 구체적으로, 본 발명의 3차원 가상공간 구현방법은 도 1에 나타난 바와 같이 실제공간을 촬영하여 소스이미지를 얻는 단계(S100), 촬영된 소스이미지를 편집하는 단계(S200), 편집된 이미지에 객체성을 부여하여 프레임을 생성하는 단계(S300), 생성된 프레임과 대응 이미지를 제어하기 위한 프로그래밍 단계(S400), 및 모니터와 같은 디스플레이 상에서 3차원 가상공간을 디스플레이하는 단계(S500)들을 포함한다. 덧붙여, 본 실시예에서는 광학적 카메라에 의한 촬영을 예시하고 있지만, 통상적으로 비트맵(BITMAP) 계열의 이미지를손쉽게 얻기 위해 디지털 카메라를 사용할 수도 있다. 이 경우에는, 디지털 카메라의 이미지 해상도와 화소수를 적절하게 고려하여야 한다.The three-dimensional virtual space according to the present invention has a near-real perspective, which is achieved by photographing the real space with an optical camera, editing the images and giving a digital dynamic size change. Specifically, in the method of implementing the 3D virtual space of the present invention, as shown in FIG. 1, a step of obtaining a source image by photographing a real space (S100), editing a captured source image (S200), an object in the edited image Generating a frame by giving a sex (S300), a programming step for controlling the generated frame and the corresponding image (S400), and displaying a three-dimensional virtual space on a display such as a monitor (S500). In addition, in the present embodiment, the photographing by the optical camera is exemplified, but in general, a digital camera may be used to easily obtain a bitmap (BITMAP) series of images. In this case, the image resolution and the number of pixels of the digital camera should be properly considered.

그러면, 상기 과정을 차례로 살펴보기 위해 먼저 실제공간을 광학적 카메라로 촬영하는 단계(S100)에 대해 구체적으로 살펴본다.Then, in order to look at the process in order first looks at the step (S100) for taking a real space with the optical camera in detail.

1. 실제 공간 촬영1. Real space shooting

본 발명에 따르면 모니터와 같은 디스플레이에서 표시될 3차원 가상공간은 그래픽 작성 툴과 같은 프로그램으로 만들어지는 것이 아니라 광학적 카메라에 의해 촬영되어야 한다. 예를 들어, 복도와 같이 원근감을 잘 느낄 수 있는 실제공간을 3차원 가상공간에서 표현하기 위해서는 카메라를 이용하여 복도를 실제로 촬영하게 된다.According to the present invention, the three-dimensional virtual space to be displayed on a display such as a monitor must be photographed by an optical camera, not created by a program such as a graphic creation tool. For example, in order to express a real space with a perspective like a corridor in a 3D virtual space, a corridor is actually photographed using a camera.

본 발명에 따르면, 3차원 가상공간으로 변환될 피사체가 되는 실제공간은 카메라에 의해 연속적이면서도 간헐적으로 촬영된다. 여기에서 '연속적이면서도 간헐적인 촬영'이란 카메라가 공간적으로 정지되어 있지 않고 일정한 방향, 즉 원근감을 부여하는 방향으로 움직이면서 일정 간격마다 실제공간을 촬영한다는 의미이다. 이것은 시간적인 구분이라기보다는 공간적인 구분이며, 따라서 카메라는 일정한 방향을 따라 서로 다른 지점에서 동일한 공간을 촬영하게 된다. 여기서, 카메라의 이동방향은 원근감을 부여하는 방향이며, 엄밀히 말해 그것은 실제공간에서 관찰자가 이동하는 방향 즉, 전후진하는 방향이 될 것이다.According to the present invention, the actual space that becomes the subject to be converted into the three-dimensional virtual space is photographed continuously and intermittently by the camera. Here, 'continuous and intermittent shooting' means that the camera does not stand still in space but moves in a certain direction, that is, in a direction that gives perspective, and shoots the actual space at regular intervals. This is a spatial distinction rather than a temporal distinction, so the camera shoots the same space at different points along a certain direction. Here, the moving direction of the camera is a direction giving perspective, and strictly speaking, it will be the direction in which the observer moves in the real space, that is, the direction moving forward and backward.

도 2a 내지 도2c에는 본 발명의 바람직한 실시예에 따라 실제공간을 촬영하기 위한 서로 다른 세 대의 카메라를 보여준다. 카메라(C1)은 실제공간의 정면을 촬영하며, 카메라(C2)는 좌측을, 그리고 카메라(C3)는 우측을 각각 촬영하도록 설치된다. 이때, 정면 카메라(C1)의 가로화각(θ)은 (실제로는 약간의 차이가 있겠지만) 관찰자가 전방을 바라볼 때의 수평시야각에 대응하는 것으로 간주하며, 예를 들어 초점거리 35mm 렌즈의 경우 가로화각(θ)은 약 53도이다(세로화각은 약37도). 도 2d에 도시되어 있듯이, 상기 측면 카메라(C2)(C3)는 정면 카메라(C1)에 대해, 바람직하게 카메라(C1)(C2) 각각의 중심선(CL) 사이의 각도(α)가 45도를 이루도록 기울어져 있는데, 이것은 관찰자가 고개를 좌 또는 우로 돌렸을 때 보게되는 자연스러운 각도에 해당한다. 또한, 상기 카메라(C1)(C2)(C3)들은 지면으로부터 동일한 높이, 바람직하게는 관찰자의 눈높이에 맞도록 설치된다.2A to 2C show three different cameras for photographing a real space according to a preferred embodiment of the present invention. The camera C1 photographs the front of the real space, the camera C2 is installed to the left, and the camera C3 is photographed to the right. At this time, the horizontal angle of view θ of the front camera C1 is considered to correspond to the horizontal viewing angle when the observer looks forward (although there may be a slight difference). The angle of view θ is about 53 degrees (a vertical angle of view is about 37 degrees). As shown in FIG. 2D, the side cameras C2 and C3 have an angle α between the centerline CL of each of the cameras C1 and C2 with respect to the front camera C1. It is tilted to achieve this, which is the natural angle the observer sees when turning his head left or right. In addition, the cameras C1, C2 and C3 are installed at the same height from the ground, preferably at the eye level of the viewer.

한편, 관찰자는 고개를 위 또는 아래로 향함으로써 천정 또는 바닥을 볼 수있는데, 이것에 상응하는 실제 사진을 얻기 위해서는 정면 카메라(C1)와 상방 및 하방으로 소정각도를 이루는 별도의 카메라(미도시)들이 더 설치되어야 할 것이다. 일반적으로 3차원 가상공간은 관찰자가 전후진하거나 좌우로 방향을 전환하는 등 수평적인 공간구현이 더욱 중요시되는 반면, 천정이나 바닥과 같은 수직적인 공간의 구현은 비교적 무시되어도 좋다. 다만, 관찰자가 계단을 오르내리거나 엘리베이터를 타고 승강할 경우에는 수직적인 3차원 공간구현이 필요한데 이것은 상기 측면 카메라(C2)(C3)들에 의해 구현되는 방식이 그대로 동일하게 적용될 수 있을 것이므로 별도의 상세한 설명은 생략하기로 한다.On the other hand, the observer can see the ceiling or the floor by pointing the head up or down, in order to obtain a real picture corresponding to this, a separate camera (not shown) at a predetermined angle upward and downward with the front camera (C1) Will need to be installed more. In general, the three-dimensional virtual space is more important to implement the horizontal space, such as the observer moving forward or backward, or to the left and right, while the implementation of the vertical space such as the ceiling or floor may be relatively ignored. However, when the viewer climbs and descends the stairs or ascends the elevator, a vertical three-dimensional space is required. This is because the methods implemented by the side cameras C2 and C3 may be applied in the same manner. Detailed description will be omitted.

또한, 도 2d를 참조하면, 정면 카메라(C1)의 촬영영역과 측면카메라(C2)(C3)의 촬영영역이 상호 중복되는 영역(A)이 발생하는데 이것은 관찰자의 정면 시야각과 고개를 돌렸을 때의 측면 시야각이 서로 중첩되는 부분에 해당한다고 할 수 있다. 이러한 중복영역(A)은 정면 카메라(C1)에 의해 촬영되는 영역이므로 후술하는 바와 같이 정면 이미지로서 처리된다. 이것은 디스플레이 상에 나타나는 3차원 정면 공간을 넓게 확보해주는 것이지만 이것에 의해 본 실시예가 한정되는 것은 아니다.In addition, referring to FIG. 2D, an area A in which the photographing area of the front camera C1 and the photographing area of the side cameras C2 and C3 overlap each other is generated, which is obtained when the viewer's front viewing angle and head are turned. It can be said that the side viewing angles correspond to portions overlapping each other. Since the overlap area A is a region photographed by the front camera C1, it is processed as a front image as will be described later. This secures a wide three-dimensional frontal space appearing on the display, but this embodiment is not limited thereto.

본 발명에 따르면, 상기 카메라(C1)(C2)(C3)들은 원근감을 부여하는 방향 즉, 전진하는 방향으로 이동하면서 실제 공간을 복수회 촬영하게 된다. 예를 들어, 정면 카메라(C1)는 도 3a에 도시된 바와 같이 전방으로 전진하면서 일정간격(D)마다 정면 공간을 촬영하게 된다. 이때, 상기 촬영지점 사이의 간격(D)은 본 발명에 의해 한정되지 않으나 바람직하게 관찰자의 걸음 1보(one step)에 해당하도록 한다. 카메라(C1)는 전진하면서 일정 시점마다 일정 간격으로 실제공간을 촬영하며, 대안으로서 상기 카메라(C1)가 일정한 속도로 전진하면서 소정주기로 예컨대, 초당 10컷의 속도로 공간을 촬영할 수 있다. 동일한 방법으로 도 3b에 도시된 바와 같이 측면 카메라(C2)에 의한 측면 연속 촬영이 이루어진다.According to the present invention, the cameras C1, C2, and C3 are photographed in the actual space a plurality of times while moving in a direction that gives a perspective, that is, a forward direction. For example, the front camera C1 photographs the front space at a predetermined interval D while moving forward as shown in FIG. 3A. At this time, the interval (D) between the photographing point is not limited by the present invention, but preferably corresponds to one step of the observer's step. The camera C1 photographs the actual space at regular intervals at predetermined time points while moving forward. Alternatively, the camera C1 may photograph the space at a rate of, for example, 10 cuts per second while moving forward at a constant speed. In the same manner, the side continuous shooting by the side camera C2 is performed as shown in FIG. 3B.

상기 카메라들에 의한 실제공간의 촬영을 이해하기 위해 도 4에 도시된 공간을 참조한다. 도 4는 좌우측벽(100)(110)과 바닥(200) 및 천정(210)으로 된 막다른 복도를 나타내며 막다른 벽(220)에는 액자(1)가 걸려있는 모습을 보여준다. 참조부호 400a, 400b, 400c, 400d는 측면벽(100)(110)과 바닥(200) 및 천정(210)이 경계를 이루는 코너 모서리부를 나타내며, 참조부호 410a 및 420b는측면벽(100)(110)과 정면벽(220)이 경계를 이루는 코너 모서리부를 가리킨다.Reference is made to the space shown in FIG. 4 to understand the shooting of the real space by the cameras. 4 shows a dead corridor consisting of left and right side walls 100, 110, a floor 200, and a ceiling 210, and shows a frame 1 hanging on the dead wall 220. Reference numerals 400a, 400b, 400c, and 400d denote corner corners at which the side walls 100 and 110 and the floor 200 and the ceiling 210 are bounded, and reference numerals 410a and 420b denote the side walls 100 and 110. ) And a corner edge portion at which the front wall 220 forms a boundary.

상기 좌우측벽(100)(110)에는 편의를 위해 스트라이프(101)(102) 무늬가 그려져 있으며 모든 벽(100)(110)(200)(210)에는 설명의 편의를 위해 소정간격으로 가상의 구획선(IL)이 표시되어 각각의 영역은 1S∼6S 및 1F∼6F로 부기되어 있다. 참조부호 300으로 표시된 실선은 전술한 정면 카메라(C1)와 측면 카메라(C2)(C3)의 촬영 경계를 나타낸 것으로서 그 내부는 후술하는 메인프레임에 대응하는 영역이다.The left and right side walls 100 and 110 are drawn with stripes 101 and 102 for convenience, and all the walls 100, 110, 200 and 210 have virtual partition lines at predetermined intervals for convenience of description. (IL) is indicated and each area is appended with 1S-6S and 1F-6F. The solid line denoted by reference numeral 300 indicates a photographing boundary between the front camera C1 and the side cameras C2 and C3, and the inside thereof is an area corresponding to the main frame described later.

보다 상세한 이해를 돕기 위해 도 2d와 도 4를 함께 참조하면, 도 2d에서 정면 카메라(C1)가 촬영하는 정면영역(F)은 도 4의 막다른 정면벽(220)에 해당하고 측면 카메라(C2)가 촬영하는 측면영역(S)은 도 4의 측면벽(1S∼6S)에 해당한다. 또한, 영역(V)는 정면 카메라(C1)에 의해 촬영되는 측면벽(도 4의 1F∼6F)인 동시에 측면 카메라(C2)와의 중복 촬영 영역(A)이기도 하다. 관찰자가 정면을 향할 경우, 관찰자의 시야각은 정면 카메라(C1)의 가로화각(θ)과 같으므로 결국 관찰자는 도 4의 실선(메인프레임 300) 내에 표시된 이미지만을 보는 것이 되고, 이것은 디스플레이 상에 나타나는 3차원 가상공간 화면이 된다.2D and 4 together for better understanding, the front region F taken by the front camera C1 in FIG. 2D corresponds to the dead front wall 220 of FIG. 4 and the side camera C2. The side region S taken by) corresponds to the side walls 1S to 6S of FIG. In addition, the area V is the side wall (1F-6F of FIG. 4) image | photographed by the front camera C1, and also the overlapping imaging area | region A with the side camera C2. When the viewer faces the front, the viewer's viewing angle is equal to the horizontal angle of view θ of the front camera C1, so that the viewer eventually sees only the image displayed in the solid line (mainframe 300) of FIG. 4, which appears on the display. It becomes 3D virtual space screen.

1.1 실제공간의 측면 촬영1.1 Side shot of real space

그러면, 편의상 실제공간의 측면 촬영에 대해서 먼저 설명한다. 측면 카메라(C2)가 도 3b의 최초 위치(Po)에 있을 경우 촬영되는 측면벽(도 4의 100)은 도 2d의 영역(S) 및 영역(V)이 되며, 그러한 촬영 이미지의 예가 도 5a에 도시되어 있다. 도 5a에서는 편의상 측면벽(100)만을 나타내었고 바닥(200)과 천정(210)은 생략하였다. 즉, 최초의 기준 위치(Po)에서 카메라(C2)는 가장 근거리에 있는 측면벽의 영역(1S)과 함께 그로부터 점차 멀어지는 측면벽(2S∼6S)들을 포함하는 측면 소스이미지(Side Source Images)(SS1)를 촬영한다.For convenience, the side photographing of the actual space will be described first. When the side camera C2 is in the initial position Po of FIG. 3B, the side wall (100 in FIG. 4) to be photographed becomes the area S and the area V of FIG. 2D, and an example of such a photographed image is shown in FIG. 5A. Is shown. In FIG. 5A, only the side wall 100 is shown for convenience and the bottom 200 and the ceiling 210 are omitted. That is, the camera C2 at the first reference position Po includes the side source images (Side Source Images) including the area 1S of the side wall at the shortest distance and the side walls 2S to 6S gradually away from it. Shoot SS1).

다음으로, 카메라(C2)가 이동하여 위치(P1)에 도달할 때 다시 촬영이 이루어지는데 이때의 소스이미지(SS2)는 도 5b에 도시된 바와 같다. 여기서, 편의상 카메라(C2)가 지점(Po)에서 (P1)으로 이동할 경우 카메라의 좌측 시야 경계가 측면벽(100)벽에 구획된 가상선(도 4의 IL)의 간격만큼 전진한다고 가정하면, 지점(P1)에서 카메라(C2)에 의해 촬영된 이미지는 가장 근접된 영역으로서 (2S)를 포함하게 될 것이다. 그와 같은 방식으로 측면 카메라(C2)가 전진하면서 일정간격(D)마다 촬영을 반복하게 되면 도 5c 내지 도 5f와 같은 소스이미지(SS3∼SS6)를 얻게 된다. 또한, 카메라(C3)에 대한 촬영방법도 전술한 바와 동일하므로 중복을 피하기 위해 설명을 생략한다.Next, when the camera C2 moves to reach the position P1, photographing is performed again. The source image SS2 is as shown in FIG. 5B. Here, for convenience, it is assumed that when the camera C2 moves from the point Po to the point P1, the left view boundary of the camera advances by the distance of the imaginary line (IL in FIG. 4) partitioned on the side wall 100 wall. The image taken by camera C2 at point P1 will include 2S as the closest area. When the side camera C2 moves forward in such a manner and repeats shooting at a predetermined interval D, source images SS3 to SS6 as shown in FIGS. 5C to 5F are obtained. In addition, since the photographing method for the camera C3 is also the same as described above, a description thereof will be omitted to avoid duplication.

1.2 실제공간의 정면 촬영1.2 Front view of real space

실제공간의 정면은 정면 카메라(C1)에 의해 촬영된다. 정면 촬영의 기본적인 방법은 전술한 측면 촬영과 동일하다. 즉, 정면 카메라(C1)가 최초 지점(도 3a의 Po)에 위치할 때 가로화각(θ)내에는 측면벽 영역(도 2d의 V)과 정면 영역(F)이 포함되는데, 이것에 상응하는 정면 소스이미지(Front Source Images)(FS1)는 도 6a에 도시되어 있다. 여기서, 카메라에 가장 근접한 영역은 (1F)영역이 된다.The front of the real space is photographed by the front camera C1. The basic method of frontal shooting is the same as the side shooting described above. That is, when the front camera C1 is located at the initial point (Po in FIG. 3A), the horizontal angle of view θ includes the side wall area (V in FIG. 2D) and the front area F. Front Source Images FS1 are shown in FIG. 6A. Here, the area closest to the camera becomes the (1F) area.

전술한 바와 마찬가지로, 카메라(C1)가 전진하면서 일정 간격(D)마다 촬영을 반복하게 되면, 도 6b 내지 도 6g의 소스이미지(FS2∼FS7)를 연속적으로 얻게 된다. 다시 말해, 카메라(C1)가 전진함에 따라 측면벽(100)은 가상선(IL) 사이의 간격만큼 바뀌게 되고, 동시에 막다른 정면벽(220)은 점차로 확대되는데, 결국 정면 카메라(C1)가 그 가로화각(θ)의 좌우측 경계선이 측면벽(100)(110)과 정면벽(220)이 이루는 코너 모서리부(410a)(410b)와 만나는 지점까지 전진하면 도 6g의 소스이미지(FS7)에서와 같이 정면벽(220)만이 촬영될 것이다.As described above, when the camera C1 is repeatedly photographed at a predetermined interval D while moving forward, the source images FS2 to FS7 of FIGS. 6B to 6G are obtained continuously. In other words, as the camera C1 moves forward, the side wall 100 changes by the distance between the imaginary lines IL, and at the same time, the dead front wall 220 gradually expands, so that the front camera C1 is When the left and right boundary lines of the horizontal angle of view θ advance to the point where they meet the corner edge portions 410a and 410b formed by the side walls 100 and 110 and the front wall 220, the source image FS7 of FIG. As such, only the front wall 220 will be photographed.

2. 소스이미지 편집2. Edit source image

본 발명에 따르면 카메라(C1)(C2)(C3)에 의해 촬영된 소스이미지들은 편집되어 프레임 이미지 데이터로 변환된다. 이러한 소스이미지 편집은 전술한 바와 같은 방식으로 실제 촬영된 이미지들을 결합하여 하나의 연속적인 가상공간을 구현하기 위함이다.According to the present invention, the source images photographed by the cameras C1, C2 and C3 are edited and converted into frame image data. This source image editing is to implement one continuous virtual space by combining the actual photographed images in the manner described above.

2.1 측면 소스이미지 편집2.1 Side source image editing

측면 소스이미지의 편집은 측면 카메라(C2)가 기준 위치(Po)에서 촬영한 도 5a의 표본 측면 소스이미지(SS1)를 적절한 크기로 자르는 것에서 시작된다. 이때, 표본 소스이미지(FS1)는 화면의 해상도와 3차원 가상현실공간 내에서의 관찰자의 평균 보행의 보폭, 피사체 대상물의 돌출 빈도 등을 고려하여 적절한 크기로 제단된다. 예를 들어, 도 5a의 표본 소스이미지(FS1)는 가장 근접 영역인 (1S)를 포함하도록 좌측단부로부터 소정크기의 가로 세로 화소를 가지도록 절단되는데, 본 실시예에서는 편의를 위해 가상선(IL)에 의해 구획되는 영역(1S)만큼의 크기를 가지도록 절단한다. 절단된 측면 프레임 이미지(Side Frame Images)는 도 7a에서 참조부호 SF1으로 나타나 있다.The editing of the side source image begins with the side camera C2 cutting the sample side source image SS1 of FIG. 5A taken at the reference position Po to an appropriate size. In this case, the sample source image FS1 is cut to an appropriate size in consideration of the resolution of the screen, the average walking distance of the observer in the three-dimensional virtual reality space, the frequency of protrusion of the object. For example, the sample source image FS1 of FIG. 5A is cut to have a horizontal and vertical pixel of a predetermined size from the left end to include the nearest region (1S). In this embodiment, the virtual line IL is provided for convenience. Cutting to have a size as large as the area 1S partitioned by). Cut side frame images are indicated by reference SF1 in FIG. 7A.

이어서, 두번째 측면 소스이미지(도 5b의 SS2)도 절단되어 두번째 측면 프레임 이미지가 생성되는데, 이때 두번째 측면 프레임 이미지는 상기 첫번째 측면 프레임 이미지(SF1)와 이미지의 연속성을 가져야만 한다. 따라서, 도 7a에 도시된 바와 같이 첫번째 프레임 이미지(SF1)를 두번째 소스이미지(SS2)와 나란하게 배열하여 첫번째 프레임 이미지(SF1)와 연속적인 영역을 찾아낸다. 본 실시예에서는 편의를 위해 가상선(IL)사이의 간격에 상응하는 거리만큼 카메라가 전진하여 소스이미지들을 촬영하고 그 크기에 따라 프레임 이미지들을 절단하였으므로, 첫번째 프레임 이미지(SF1)에 연속되면서 그와 동일한 가로 세로 크기를 갖는 이미지는 정확하게 영역(2S)에 해당하는 부분이 될 것이다. 대안으로서, 만약 소스이미지들이 본 실시예와 달리 정확하게 경계선에 의해 나누어지지 않고 서로 중첩되는 부분을 포함하고 있더라도 첫번째 프레임 이미지(SF1)의 우측단부 화소에 담긴 이미지 정보를 파악하여 그와 동일한 이미지 정보를 가진 화소를 두번째 소스이미지에서 찾아냄으로써 연속되는 이미지를 찾을 수 있다.Subsequently, the second side source image (SS2 of FIG. 5B) is also cut to generate a second side frame image, where the second side frame image must have a continuity of the image with the first side frame image SF1. Therefore, as shown in FIG. 7A, the first frame image SF1 is arranged in parallel with the second source image SS2 to find a continuous region with the first frame image SF1. In the present embodiment, for convenience, the camera advances by a distance corresponding to the distance between the virtual lines IL, and captures the source images and cuts the frame images according to the size thereof. An image having the same horizontal and vertical size will be exactly the portion corresponding to the area 2S. Alternatively, even if the source images contain portions overlapping each other without being accurately divided by a boundary line unlike the present embodiment, the image information contained in the right end pixel of the first frame image SF1 is identified and the same image information is obtained. The successive images can be found by finding the pixels with the second source image.

이상과 같이 첫번째 프레임 이미지(SF1)에 연속되는 두번째 소스이미지(SS2)의 영역(2S)이 첫번째 프레임 이미지(SF1)와 동일한 크기를 가지도록 절단됨으로써 두번째 프레임 이미지(SF2)가 생성되게 된다. 여기서, 엄밀히 말해 첫번째 소스이미지(도 5a의 SS1)와 두번째 소스이미지(도 5b의 SS2)는 동일한 축척으로 촬영된 이미지이므로, 도 7a에 도시된 바와 같이, 비록 첫번째 프레임 이미지(SF1)와 두번째 프레임 이미지(SF2)가 연속적인 이미지를 형성하는 것이라고 하더라도 양자는 그 크기가 동일하거나 차이가 있어 그러한 이미지의 연속성을 시각적으로 곧 바로 확인하는 것이 곤란하다. 따라서, 두번째 소스이미지(SS2)가 첫번째 프레임 이미지(SF1)에 연속되어 원근감을 가지도록 점선으로 도시된 크기로 이를 축소할 필요가 있다. 이것은 곧 관찰자에게 가장 근접한 프레임 이미지에 연속되는 차하위 프레임 이미지가 공간적인 원근감을 가지도록 축소되어 정렬된다는 것을 의미한다. 참고로, 본 명세서에서 상위 이미지란 관찰자에 더욱 근접한 이미지를 나타내고 하위 이미지란 관찰자로부터 더욱 멀리 떨어져 있는 이미지로 정의되어 사용된다.As described above, the area 2S of the second source image SS2 subsequent to the first frame image SF1 is cut to have the same size as the first frame image SF1, thereby generating the second frame image SF2. Here, strictly speaking, since the first source image (SS1 of FIG. 5A) and the second source image (SS2 of FIG. 5B) are taken at the same scale, as shown in FIG. 7A, although the first frame image SF1 and the second frame are shown. Even if the image SF2 forms a continuous image, both are the same or different in size, and thus it is difficult to visually confirm the continuity of such an image immediately. Accordingly, it is necessary to reduce the size of the second source image SS2 to the size shown by the dotted line so that the second frame image SS2 has a perspective in a continuous manner. This means that subsequent subframe images that are contiguous to the frame image closest to the observer are scaled down and aligned to have a spatial perspective. For reference, in the present specification, the upper image represents an image closer to the observer and the lower image is defined and used as an image farther from the observer.

결과적으로, 두번째 프레임 이미지(SF2)는 첫번째 프레임 이미지(SF1)와 동일한 크기를 가지지만, 그 이미지가 공간적인 원근감을 가지면서 연속되도록 축소되어 배열되며, 두번째 프레임 이미지(SF2)는 첫번째 프레임 이미지(SF1)에 대해 고유한 축소율을 가지게 되는 것이다. 도 7b에는 두번째 프레임 이미지(SF2)가 고유한 축소율에 따라 축소되어 첫번째 프레임 이미지(SF1)와 연속적으로 배열된 상태를 보여주고 있다. 이와 같은 축소율의 조작은 알려져 있는 다양한 이미지 저작도구를 사용하여 달성할 수 있다.As a result, the second frame image SF2 has the same size as the first frame image SF1, but is arranged to be condensed so that the image is continuous with spatial perspective, and the second frame image SF2 is the first frame image SF2. It will have its own reduction ratio for SF1). FIG. 7B illustrates a state in which the second frame image SF2 is reduced according to a unique reduction ratio and continuously arranged with the first frame image SF1. Manipulation of such reduction rates can be accomplished using a variety of known image authoring tools.

동일한 방식으로 세번째 측면 소스이미지(SS3)로부터 세번째 측면 프레임 이미지(SF3)를 얻을 수 있으며, 세번째 프레임 이미지(SF3) 역시 두번째 프레임 이미지(SF2)에 대해 고유한 축소율을 가지게 된다.In the same manner, the third side frame image SF3 can be obtained from the third side source image SS3, and the third frame image SF3 also has a unique reduction ratio with respect to the second frame image SF2.

2.2 정면 소스이미지 편집2.2 Edit Front Source Image

정면 소스이미지의 편집은 도 6a에 도시된 표본 정면 소스이미지(FS1)의 네 모서리부를 소정크기로 절단함으로써 시작된다. 즉, 표본 소스이미지(FS1)는 도 8a에 도시된 바와 같이 좌측단부, 우측단부, 하단부 및 상단부가 막대 모양으로 차례로 절단되어 첫번째 정면 프레임 이미지(FF1a)(FF1b)(FF1c)(FF1d)를 생성하게 된다. 이렇게 소스이미지의 네 모서리 단부를 막대 모양으로 절단하는 것은 이미지를 가운데가 비어있는 사각띠 모양으로 절단하기가 현실적으로 어렵고, 사각띠 모양으로 절단하더라도 사각띠 내부의 공백부분도 여전히 투명한 이미지로서 존재하므로 이미지 저장 및 전송시에 용량을 여전히 차지하기 때문이다.The editing of the frontal source image starts by cutting the four corner portions of the sample frontal source image FS1 shown in Fig. 6A to a predetermined size. That is, the sample source image FS1 is cut in order of the left end, the right end, the lower end and the upper end in the shape of a bar as shown in FIG. 8A to generate the first front frame images FF1a, FF1b, FF1c, and FF1d. Done. This cutting of the four corners of the source image into a bar shape is difficult to cut the image into a rectangular band with an empty center, and even when cutting into a rectangular band, the blank inside the rectangular band still exists as a transparent image. This is because the storage and transmission still occupy capacity.

이때 상기 정면 프레임 이미지의 크기는 전술한 바와 같이 화면의 해상도와 3차원 가상현실공간 내에서의 관찰자의 평균 보행의 보폭, 피사체 대상물의 돌출 빈도 등을 고려하여 결정되지만, 바람직하게는 상기 측면 프레임 이미지의 크기에 상응하는 크기로 한다. 본 실시예에서는, 전술한 측면과 마찬가지로 가상선(IL) 사이의 간격에 해당하는 영역(1F) 만큼 이미지가 절단된다.In this case, the size of the front frame image is determined in consideration of the resolution of the screen, the stride length of the observer's walking in the three-dimensional virtual reality space, the frequency of protrusion of the object, and the like. The size corresponds to the size of. In the present embodiment, the image is cut by the area 1F corresponding to the interval between the virtual lines IL as in the above-described aspect.

바람직하게, 소스이미지의 좌측단부와 우측단부를 먼저 절단하고 다음으로 나머지 이미지에서 하단부와 상단부가 절단됨으로써 정면 프레임 이미지(FF1a)(FF1b)(FF1c)(FF1d)들이 생성된다.Preferably, the front frame images FF1a, FF1b, FF1c, and FF1d are generated by first cutting the left and right ends of the source image and then cutting the lower and upper ends of the remaining images.

다음으로 두번째 소스이미지(도 6b의 FS2)로부터 두번째 정면 프레임 이미지를 생성하기 위해, 이미 생성된 첫번째 정면 프레임이미지(FF1a)(FF1b)(FF1c)(FF1d)와 연속적인 이미지를 가지는 영역을 두번째 소스이미지(FS2)로부터 찾아낸다. 이것은 프레임 이미지(FF1a)의 우측단부, (FF1b)의 좌측단부, (FF1c)의 상단부 그리고 (FF1d)의 하단부 화소에 담긴 이미지와 동일한 이미지 정보를 가진 영역을 두번째 소스이미지(FS2)에서 찾아냄으로써 가능하다. 이때, 첫번째 소스이미지(FS1)와 두번째 소스이미지(FS2)는 동일한 축적으로 촬영된 것이므로 비록 이미지가 연속적이라고 하더라도 크기가 동일하므로 연속적인 이미지를 시각적으로 쉽게 확인하기 곤란하다. 따라서, 도 8a에 도시된 바와 같이 두번째 소스이미지(FS2)를 저작도구를 이용하여 소정비율로 축소함으로써 연속된 이미지를 쉽게 찾아낼 수 있도록 한다.Next, in order to generate a second front frame image from the second source image (FS2 of FIG. 6B), a region having a continuous image with the first front frame image (FF1a) (FF1b) (FF1c) (FF1d) that has already been generated is generated. Find out from image FS2. This is possible by finding in the second source image FS2 an area having the same image information as the image contained in the right end of the frame image FF1a, the left end of FF1b, the upper end of FF1c, and the lower end of FF1d. Do. At this time, since the first source image FS1 and the second source image FS2 are photographed with the same scale, even if the images are continuous, the same size is the same, so it is difficult to visually easily confirm the continuous images. Accordingly, as shown in FIG. 8A, the second source image FS2 is reduced by a predetermined ratio using the authoring tool, so that the continuous images can be easily found.

이렇게 해서, 첫번째 정면 프레임 이미지(FF1a)(FF1b)(FF1c)(FF1d)와 연속적이면서 이들과 동일한 크기를 갖도록 절단된 두번째 정면 프레임 이미지(FF2a)(FF2b)(FF2c)(FF2d)가 생성되는데, 두번째 정면 프레임 이미지(FF2a)(FF2b)(FF2c)(FF2d)가 첫번째 정면 프레임 이미지(FF1a)(FF1b)(FF1c)(FF1d)에 대해 고유한 축소율을 갖도록 절단되어 생성된 상태가 도 8b에 도시되어 있다.In this way, a second front frame image FF2a (FF2b) (FF2b) (FF2c) (FF2d) is generated that is continuous with the first front frame image FF1a (FF1b) (FF1c) (FF1d) and is cut to have the same size. 8B shows a state in which the second front frame image FF2a (FF2b) (FF2c) (FF2d) is cut out to have a unique reduction ratio with respect to the first front frame image FF1a (FF1b) (FF1c) (FF1d). It is.

이와 동일한 방법이 각 소스이미지에 순차적으로 적용되어 각 소스이미지에 대한 정면 프레임 이미지들이 생성된다. 이들 이미지들은 모두 동일한 크기의 막대 모양을 이루며 특정 정면 프레임 이미지는 그 보다 차상위 정면 프레임 이미지와 이미지의 연속성을 위해 고유한 축소율을 가진다.The same method is applied to each source image sequentially to generate front frame images for each source image. These images all form the same sized bar, and certain front frame images have unique reduction rates for the continuity of the next higher front frame image and image.

2.3 레이어 이미지 생성2.3 Create Layer Images

정면 카메라(C1)가 전진하면서 연속적이면서도 간헐적으로 촬영한 도 6a 내지 도 6g의 정면 소스이미지(FS1∼FS7)들을 살펴보면, 막다른 정면벽(220)은 형태의 변화없이 점차 확대되어 나타날 뿐이다. 이와 같이, 실제공간의 측면벽(100)(110)이나 바닥(200) 그리고 천정(210)과 같이 선형적인 공간원근감을 가지지 않거나 상대적으로 무시할 수 있는 이미지들은 레이어 이미지(layer images)로 처리된다.Looking at the front source images FS1 to FS7 of FIGS. 6A to 6G, which are continuously and intermittently taken while the front camera C1 is moving forward, the dead front wall 220 is only gradually enlarged without change in shape. As such, images that do not have a linear spatial perspective or are relatively negligible, such as the side walls 100, 110, 200, and ceiling 210 of the real space, are processed as layer images.

이러한 레이어 이미지들은 단순히 확대 또는 축소되거나 이미지의 일부가 나타나거나 가려지는 것으로만 표현되면 충분하다. 또한, 레이어 이미지는 카메라에 의해 촬영된 사진 자체에 원근감을 가지고 있을 뿐 전술한 바와 같은 이미지의 편집과 축소 정렬 등을 통해 선형적인 공간원근감을 제공할 필요는 없다.It is sufficient that such layer images are simply expressed as being enlarged or reduced, or where part of the image appears or is hidden. In addition, the layer image only has a perspective on the photograph itself taken by the camera, and does not need to provide a linear spatial perspective through the editing and reduction alignment of the image as described above.

본 실시예에서 레이어 이미지는 정면벽(220)에 해당하는 이미지로서, 곧 도 6g에 도시된 이미지이다.In this embodiment, the layer image is an image corresponding to the front wall 220, which is an image illustrated in FIG. 6G.

후술하는 바와 같이 상기 레이어 이미지는 레이어 서브프레임의 확대/축소 또는 드러남/숨김으로 인해 그 이미지가 확대/축소되거나 그 이미지의 일부가 드러나거나 숨겨지게 된다. 또한, 상기 레이어 이미지는 두 개이상의 레이어 이미지들이 상호 경계를 이루며 중첩됨으로써 이미지의 일부가 감추어지거나 드러나도록 처리될 수 있다.As will be described later, the layer image may be enlarged / reduced or a part of the image may be hidden or hidden due to the enlargement / reduction or hiding / hiding of the layer subframe. In addition, the layer image may be processed so that a part of the image is hidden or exposed by overlapping two or more layer images forming a mutual boundary.

3. 서브프레임 생성3. Subframe generation

3.1 서브프레임의 구성3.1 Subframe Organization

본 발명의 특징에 따르면, 위와 같이 생성된 프레임 이미지들은 각각의 이미지들이 대응되는 프레임으로 처리되어 모니터 상에 디스플레이된다. 도 9에는 본 발명의 바람직한 실시예에 따른 메인프레임과 서브프레임의 구성이 개략적으로 나타나 있다.According to a feature of the present invention, the frame images generated as described above are displayed on a monitor by processing each image into a corresponding frame. 9 schematically shows a configuration of a mainframe and a subframe according to an exemplary embodiment of the present invention.

도면을 참조하면, 메인프레임(300)은 관찰자(10)가 3차원 가상현실공간을 시각적으로 볼 수 있는 경계 테두리에 해당하며, 이것은 관찰자(10)를 대신하는 정면 카메라(C1)에 의해 커버되는 영역일 뿐만 아니라, 동시에 컴퓨터 모니터(미도시)와 같은 디스플레이에 나타나는 화면 영역이 된다.Referring to the drawing, the mainframe 300 corresponds to a boundary border where the observer 10 can visually see the 3D virtual reality space, which is covered by the front camera C1 in lieu of the observer 10. Not only is it an area, it is also a screen area that appears on a display such as a computer monitor (not shown) at the same time.

서브프레임들은 상기 메인프레임의 경계 내부 및 외부를 구획하는 프레임으로서 이것은 앞에서 생성된 프레임 이미지들이 대응되는 영역이다. 본 발명에 따른 3차원 가상현실공간은 이들 서브프레임들의 배열과 동적 변환에 의해 달성된다.Subframes are frames that partition inside and outside the boundary of the main frame, which is an area to which the frame images generated previously correspond. The three-dimensional virtual reality space according to the present invention is achieved by the arrangement and dynamic transformation of these subframes.

먼저, 상기 메인프레임(300) 내부에 위치하는 서브프레임(1a∼6a)(1b∼6b)(1c∼6c)(1d∼6d)들은 관찰자(10)가 정면을 주시할 때 바라보게 되는 이미지에 대응하는 정면프레임들이다. 이들 정면 서브프레임(1a∼6a)(1b∼6b)(1c∼6c)(1d∼6d)들은 각각 종방향과 횡방향의 막대 모양으로 구성되는데, 전술한 정면 프레임 이미지에서와 마찬가지로 메인프레임(300)의 좌측단, 우측단, 상단 및 하단을 각각 막대 모양으로 구획하여 생성된다. 상기 정면 서브프레임(1a∼6a)(1b∼6b)(1c∼6c)(1d∼6d)들은 후술하는 바와 같이 고유한 축소율에 따라서 연속적인 사각띠 모양으로 배열된다.First, the subframes 1a to 6a, 1b to 6b, 1c to 6c, and 1d to 6d positioned inside the main frame 300 are placed on an image that the viewer 10 looks at when facing the front. Corresponding front frames. These front subframes 1a to 6a, 1b to 6b, 1c to 6c, and 1d to 6d each have a rod shape in the longitudinal direction and the transverse direction, and the main frame 300 is similar to the front frame image described above. Left end, right end, top and bottom of the bar) are generated by dividing each into a bar shape. The front subframes 1a to 6a, 1b to 6b, 1c to 6c, and 1d to 6d are arranged in a continuous rectangular band shape according to a unique reduction ratio as described later.

또한, 서브프레임(L)은 레이어 이미지에 대응하는 레이어 서브프레임이다.In addition, the subframe L is a layer subframe corresponding to the layer image.

상기 메인프레임(300)의 외부에 위치한 서브프레임(1L∼6L)은 좌측면 서브프레임으로서 관찰자(10)가 왼쪽으로 고개를 돌렸을 때 바라보게 되는 이미지에 대응하는 측면 서브프레임들이다.The subframes 1L to 6L positioned outside the mainframe 300 are left side subframes and correspond to side subframes corresponding to an image viewed when the viewer 10 turns his head to the left.

역시 메인프레임(300)의 외부에 위치한 서브프레임(1R∼6R)은 우측면 서브프레임으로서 관찰자(10)가 오른쪽으로 고개를 돌렸을 경우 바라보게 되는 이미지에 대응하는 측면프레임들이다.Subframes 1R to 6R positioned outside the main frame 300 are right side subframes and correspond to side frames corresponding to an image viewed when the observer 10 turns his head to the right.

상기 좌우측면 서브프레임(1L∼6L)(1R∼6R)들이 메인프레임(300)의 외부에 위치하는 것은 관찰자(10)가 3차원 가상현실공간을 정면으로 주시할 때 보이지 않는다는 것을 의미하며, 따라서 관찰자(10)가 이들 좌우측면 서브프레임(1L∼6L)(1R∼6R)들을 보기 위해서는 고개를 좌측 또는 우측으로 돌려야만 한다-실제로 이것은 후술하는 바와 같이 입력장치를 사용하여 좌로 또는 우로 방향전환을 선택하는 것을 의미한다. 상기 좌우측면 서브프레임(1L∼6L)(1R∼6R)들은 종방향으로 배열된 막대모양으로 구획되어 생성되며, 이들 상호간에도 역시 고유한 축소율 관계가 성립한다.The positioning of the left and right side subframes 1L to 6L and 1R to 6R outside of the main frame 300 means that the viewer 10 is not visible when facing the 3D virtual reality space. The observer 10 must turn his head left or right to see these left and right subframes 1L-6L (1R-6R) —actually this is done using the input device to turn left or right as described below. It means to choose. The left and right side subframes 1L to 6L (1R to 6R) are created by partitioning in the shape of rods arranged in the longitudinal direction, and these also have inherent reduction ratio relationships.

본 발명의 특징에 따르면, 원근감을 가지는 이미지 영역 즉, 측면, 상면, 바닥 등은 복수개의 서브프레임들로 나뉘어져 처리된다.According to a feature of the present invention, an image region having a perspective, that is, a side, an upper surface, a bottom, and the like is divided into a plurality of subframes and processed.

이들 서브프레임에 대해 보다 상세한 이해를 돕기 위해 전술한 프레임 이미지와의 관계에 대해서 설명한다.The relationship with the above-described frame image will be described in order to provide a more detailed understanding of these subframes.

3.2 서브프레임과 프레임 이미지의 대응3.2 Subframe and Frame Image Correspondence

도 10은 측면 서브프레임(1L∼6L)과 측면 프레임 이미지(SF1∼SF6)의 대응관계를 설명하는 도면이다. 도시된 바와 같이, 전술한 소스이미지로부터 편집되어 생성된 프레임 이미지 중에서 관찰자(10)에게 가장 가까운 최상위 측면 프레임 이미지(SF1)는 최상위 측면 서브프레임(1S)에 대응된다. 또한, 하위 측면 프레임 이미지(SF2∼SF6)들은 순차적으로 측면 서브프레임(2L∼6L)에 각각 대응된다.FIG. 10 is a diagram for explaining correspondence between side subframes 1L to 6L and side frame images SF1 to SF6. As shown, the highest side frame image SF1 closest to the observer 10 among the frame images edited and generated from the above-described source image corresponds to the highest side subframe 1S. Further, the lower side frame images SF2 to SF6 sequentially correspond to the side subframes 2L to 6L, respectively.

상기 프레임 이미지(SF1∼SF6)들은 모두 동일한 크기를 가지도록 절단되었다. 그러나, 이들이 서로 정렬하여 연속적인 이미지를 형성하면서 선형적인 공간원근감을 제공하기 위해서는 고유한 축소율로 각각 축소되어 배열되어야만 한다. 상기 측면 서브프레임(1L∼6L)들은 이러한 관계를 보여주고 있는데, 다시 말해 최상위 측면 서브프레임(1L)과 인접하는 측면 서브프레임(2L)은 소정 축소율로 축소된 크기를 가지며, 그 축소율은 앞에서 설명하였듯이 프레임 이미지(SF2)가 최상위 프레임 이미지(SF1)와 연속적인 이미지를 이루기 위해 축소된 고유축소율과 동일하다. 즉, 상기 서브프레임(1L∼6L)들은 프레임 이미지(SF1∼SF6)들 상호간의 축소율과 동일한 축소율을 가지도록 배열된다.The frame images SF1 to SF6 are all cropped to have the same size. However, in order to provide a linear spatial perspective while they are aligned with each other to form a continuous image, they must be shrunk and arranged at their own reduction ratio. The side subframes 1L to 6L show such a relationship, that is, the top side subframe 1L and the adjacent side subframe 2L have a size reduced to a predetermined reduction rate, and the reduction rate is described above. As described above, the frame image SF2 is equal to the reduced intrinsic reduction factor to form a continuous image with the highest frame image SF1. That is, the subframes 1L to 6L are arranged to have a reduction ratio equal to the reduction ratio between the frame images SF1 to SF6.

도 11은 본 발명에 따라 정면 프레임 이미지와 정면 서브프레임의 대응관계를 나타내는 도면이다. 도면을 참조하면, 최상위 정면 프레임 이미지(FF1a)(FF1b)(FF1c)(FF1d)는 서브프레임(1a)(1b)(1c)(1d)에 각각 대응된다. 또한, 두번째 정면 프레임 이미지(FF2a)(FF2b)(FF2c)(FF2d)는 두번째 서브프레임(2a)(2b)(2c)(2d)에 각각 대응한다.11 is a diagram illustrating a correspondence relationship between a front frame image and a front subframe according to the present invention. Referring to the drawings, the topmost front frame images FF1a, FF1b, FF1c, and FF1d correspond to subframes 1a, 1b, 1c, and 1d, respectively. Further, the second front frame images FF2a, FF2b, FF2c, and FF2d correspond to the second subframes 2a, 2b, 2c, and 2d, respectively.

여기에서도, 상기 첫번째 프레임 이미지(FF1a)(FF1b)(FF1c)(FF1d)과 두번째 프레임 이미지(FF2a)(FF2b)(FF2c)(FF2d)의 크기는 서로 동일하지만, 이들이 연속적인 이미지를 형성하면서 선형적인 공간원근감을 가지기 위해서 두번째 서브프레임(2a)(2b)(2c)(2d)은 첫번째 서브프레임(1a)(1b)(1c)(1d)에 대해서 소정 축소율로 축소되어 정렬되며, 앞에서와 마찬가지로 그 축소율은 두번째 프레임 이미지(FF2a)(FF2b)(FF2c)(FF2d)가 첫번째 프레임 이미지(FF1a)(FF1b)(FF1c)(FF1d)와 연속적인 이미지를 이루기 위해 축소되는 고유 축소율과 동일하다.Here too, the sizes of the first frame image FF1a (FF1b) (FF1c) (FF1d) and the second frame image FF2a (FF2b) (FF2c) (FF2d) are the same, but they form a continuous image. In order to have a spatial perspective, the second subframes 2a, 2b, 2c, and 2d are reduced and aligned at a predetermined reduction rate with respect to the first subframes 1a, 1b, 1c, and 1d. The reduction ratio is equal to the intrinsic reduction ratio in which the second frame image FF2a (FF2b) (FF2c) (FF2d) is reduced to form a continuous image with the first frame image FF1a (FF1b) (FF1c) (FF1d).

이제 다시 도 9로 돌아와서 살펴보면, 측면 서브프레임(1L∼6L)(1R∼6R)들과 정면 서브프레임(1a∼6a)(1b∼6b)(1c∼6c)(1d∼6d)들은 서로 고유한 축소율에 따라서 관찰자(10)로부터 멀어질수록 순차적으로 축소되어 정렬된다. 상기 정면 서브프레임 중에서 측면벽의 이미지에 대응하는 서브프레임(1a)은 최하위 측면 서브프레임(6L)에 대하여 역시 고유 축소율로 축소된 관계를 가지고 있으며, 이것은 곧 측면 서브프레임(1L∼6L)(1R∼6R)들은 정면 서브프레임(1a∼6a)(1b∼6b)(1c∼6c) (1d∼6d)들에 대해 상대적으로 확대되어 구성되는 것을 의미한다.Referring back to FIG. 9 again, the side subframes 1L-6L (1R-6R) and the front subframes 1a-6a (1b-6b) (1c-6c) (1d-6d) are unique to each other. According to the reduction rate, the further away from the observer 10, the smaller the order is aligned. Among the front subframes, the subframe 1a corresponding to the image of the side wall has a reduced relation with respect to the lowest side subframe 6L at an intrinsic reduction ratio, which is the side subframes 1L to 6L (1R). And -6R mean that the front subframes 1a to 6a, 1b to 6b, 1c to 6c, and 1d to 6d are enlarged relative to each other.

도 9에서 관찰자(10)가 실제로 모니터와 같은 디스플레이 상에서 볼 수 있는 영역은 메인프레임(300) 경계 내부로 한정되어 있으므로, 상기 측면 서브프레임(1L∼6L)(1R∼6R)들은 실제로 관찰자(10)가 보게되는 프레임의 크기로 나타낸 것이 아니라 메인프레임(300) 내에 디스플레이되는 정면 서브프레임들에 대한 상대적인 크기를 도식적으로 나타낸 것일 뿐이다.In FIG. 9, the area that the observer 10 can actually see on the display such as a monitor is defined inside the boundary of the mainframe 300, so that the side subframes 1L to 6L and 1R to 6R are actually the observer 10. It is only a diagram showing the relative size of the front subframes displayed in the mainframe 300, rather than the size of the frame seen.

서브프레임들의 개수와 크기는 본 실시예에 의해 한정되지 않으며, 화면의해상도와 이미지의 연속성 그리고 공간원근감 등을 고려하여 적절하게 결정될 수 있다.The number and size of the subframes are not limited by this embodiment, and may be appropriately determined in consideration of the resolution of the screen, the continuity of the image, and the spatial perspective.

또한, 어느 서브프레임에서 이미지의 확대율을 100%로 할 것인가를 결정하여야 하는데, 만약 관찰자(10)에게 가장 가까운 서브프레임(1a)이 이미지의 확대율이 100%가 되는 기준 서브프레임으로 설정될 경우, 하위 서브프레임(2a∼6a)들은 이미지의 해상도가 뛰어나다는 장점은 있지만, 관찰자(10)로부터 멀리 떨어져 상대적으로 시각적인 중요도가 낮음에도 불구하고, 기준 서브프레임과 동일한 용량의 메모리를 차지하므로 네트워크를 통한 콘텐츠 파일의 전송이 용이하지 않다는 단점이 있다. 반면에, 하위 서브프레임(6a)을 기준 서브프레임으로 설정하여 이미지 확대율을 100%로 할 경우에는 파일 용량이 작기는 하지만 상위 서브프레임(1a)에서 이미지가 확대되면 해상도가 떨어지는 문제점이 있다. 따라서, 이미지가 100%로 설정되는 기준 서브프레임의 설정은 파일 용량과 이미지의 해상도를 고려하여 적절하게 설정되는 것이 바람직하다.In addition, it is necessary to determine in which subframe the magnification of the image is 100%. If the subframe 1a closest to the observer 10 is set as the reference subframe in which the magnification of the image is 100%, Although the lower subframes 2a to 6a have an advantage of excellent resolution of the image, they occupy the network because they occupy the same amount of memory as the reference subframe despite the relatively low visual importance away from the observer 10. There is a disadvantage in that the transfer of the content file through the network is not easy. On the other hand, when setting the lower subframe 6a as the reference subframe and setting the image enlargement ratio to 100%, the file size is small, but the resolution decreases when the image is enlarged in the upper subframe 1a. Therefore, the setting of the reference subframe in which the image is set to 100% is appropriately set in consideration of the file capacity and the resolution of the image.

4. 프레임 제어 프로그래밍4. Frame Control Programming

본 발명에 따라 서브프레임을 제어하는 프로그램은 GDI(Graphic Device Interface)를 지원하는 기존의 알려진 언어들에 의해 작성될 수 있다. 특히 매크로미디어플래시(Macromedia Flash)와 같은 벡터기반의 웹 애니메이션 저작도구를 사용할 경우 동적이면서도 많은 기능들을 다양하고 쉽게 구현할 수 있는 장점이 있다. 본 발명의 바람직한 실시예에 따르면, 프레임과 이미지 제어 프로그램은 HTML계열의 언어와 스크립트 언어인 자바스크립트(JavaScript)를 이용하여 작성되는데, 이들은 별도의 3차원 브라우저없이 디스플레이 가능하며 심지어 플러그인 조차도 필요없다.The program for controlling the subframe according to the present invention may be written by existing known languages that support GDI (Graphic Device Interface). In particular, when using a vector-based web animation authoring tool such as Macromedia Flash, the dynamic and many functions can be easily and variously implemented. According to a preferred embodiment of the present invention, the frame and image control program is written using JavaScript, which is an HTML-based language and a scripting language, which can be displayed without a separate three-dimensional browser and even no plug-in is required.

바람직하게, 후술하는 바와 같이 사용자가 마우스 등을 이용하여 공간이동이나 방향전환을 위한 이벤트 신호를 입력할 경우 그에 따라 서브프레임들이 이동하는 방향과 크기의 변화가 프로그램된다. 바람직하게, 서브프레임들의 급격한 이동과 크기 변화를 막기 위해 서브프레임의 이동속도(픽셀수)와 점진적인 크기변화율이 설정될 것이다.Preferably, as described below, when a user inputs an event signal for space movement or direction change using a mouse or the like, a change in a direction and a size in which the subframes move is programmed accordingly. Preferably, the movement speed (number of pixels) and the gradual size change rate of the subframes will be set to prevent sudden movement and size change of the subframes.

후술하는 바와 같이, 가상현실공간 내에서 관찰자의 위치에 따라 메인프레임 내에 제공될 수 있는 가장 좌측단 서브프레임과 최우측단 서브프레임들이 고유하게 결정되어야 한다.As will be described later, the leftmost subframe and the rightmost subframe, which can be provided in the mainframe, must be uniquely determined according to the position of the observer in the virtual reality space.

또한, 가상현실공간 내에서 관찰자의 위치에 따라 삽입될 수 있는 레이어 이미지의 크기와 삽입위치가 설정되어야 한다. 나아가, 필요에 따라서, 동일한 영역에 대해서도 레이어 이미지에 의해 처리되는 경우와 서브프레임과 프레임 이미지에 의해 처리되는 경우를 구분하여 설정할 필요가 있다.In addition, the size and insertion position of the layer image to be inserted must be set according to the position of the observer in the virtual reality space. Further, if necessary, the same area needs to be set separately from the case processed by the layer image and the case processed by the subframe and the frame image.

서브프레임의 생성과 이미지의 삽입을 비롯한 위 프로그램은 다양한 언어와 작성툴에 의해 작성될 수 있을 것이다. 본 발명자가 이하에 예시한 프로그램 리스트는 HTML과 자바스크립트를 기반으로 작성된 것으로서 서브프레임의 생성과 이미지의 출력에 대한 일부 프로그램 예를 예시한다. 상기 프로그램은 본 발명을 대표하는 실시예가 아니며 본 발명의 실시가능한 수단을 모두 커버하는 것도 아님을 분명히 밝혀두며 오로지 본 발명의 응용예에 관한 일부를 예시하는 것으로서 그에 따라 해석되어야 하므로 본 발명의 권리범위를 한정하거나 제한하는 근거로 사용될 수 없음을 이해하여야 한다.The above program, including the creation of subframes and the insertion of images, can be written by various languages and writing tools. The program list exemplified below by the inventors is based on HTML and JavaScript, and illustrates some program examples for generating subframes and outputting images. It is clear that the above program is not an embodiment representing the present invention and does not cover all possible means of the present invention, and it should be interpreted accordingly as merely illustrating a part of the application of the present invention, and thus the scope of the present invention. It should be understood that it cannot be used as a basis for limiting or limiting this.

<프로그램 작성예><Program Creation Example>

<HTML><HEAD><HTML> <HEAD>

<TITLE>CyberShopping(TestEdit)</TITLE><TITLE> CyberShopping (TestEdit) </ TITLE>

<SCRIPT LANGUAGE="JavaScript"><!--<SCRIPT LANGUAGE = "JavaScript"> <!-

var NN = (document.layers ? true : false);var NN = (document.layers? true: false);

var hideName = (NN ? 'hide' : 'hidden');var hideName = (NN? 'hide': 'hidden');

var showName = (NN ? 'show' : 'visible');var showName = (NN? 'show': 'visible');

// 정면 서브프레임의 축소율.// Reduction rate of the front subframe.

var fred = [fred1,fred2,fred3,fred4,fred5,fred6,fred7,fred8,fred9,fred10];var fred = [fred1, fred2, fred3, fred4, fred5, fred6, fred7, fred8, fred9, fred10];

var fwid = [aw, bw, cw, dw]; // 정면 서브프레임의 폭 값.var fwid = [aw, bw, cw, dw]; // Width value of front subframe.

var fhei = [ah, bh, ch, dh]; // 정면 서브프레임의 높이 값.var fhei = [ah, bh, ch, dh]; // Height value of front subframe.

// 정면 서브프레임 좌, 상, 우, 하 구별 값.// Front subframe left, top, right, bottom distinct value.

var diff = ['a', 'b', 'c', 'd'];var diff = ['a', 'b', 'c', 'd'];

var fx = ; // 정면 서브프레임의 초기 x값.var fx =; // Initial x value of the front subframe.

var fy = ; //정면 서브프레임의 초기 y값.var fy =; // Initial y value of front subframe.

var tempImgs = [];var tempImgs = [];

//정면 서브프레임에 대한 좌측면 서브프레임의 확대율.// Magnification of left subframe to front subframe.

var lred = [lred1, lred2, lred3, lred4, lred5, lred6, lred7, lred8];var lred = [lred1, lred2, lred3, lred4, lred5, lred6, lred7, lred8];

//정면 서브프레임에 대한 우측면 서브프레임의 확대율.// Magnification of the right subframe relative to the front subframe.

var rred = [rred1, rred2, rred3, rred4, rred5, rred6, rred7, rred8];var rred = [rred1, rred2, rred3, rred4, rred5, rred6, rred7, rred8];

function subframeLayer() // 서브 프레임의 생성.function subframeLayer () // Create subframe.

for (var i = 0; i < fred.length; i++) //정면 서브프레임의 생성.for (var i = 0; i <fred.length; i ++) // Create front subframe.

var fixWid=(i==0?fx:fixWid);//각조 좌측 서브프레임의 기준x좌표값.var fixWid = (i == 0? fx: fixWid); /// x coordinate value of each left subframe.

var fixHei=(i==0?fy:fixHei);//각조 좌측 서브프레임의 기준y좌표값.var fixHei = (i == 0? fy: fixHei); /// y coordinate value of each left subframe.

var zIdx=(i==0?100:zIdx); //각 서브프레임의 깊이값.var zIdx = (i == 0? 100: zIdx); // Depth value of each subframe.

for (var j=0;j<4;j++)for (var j = 0; j <4; j ++)

var tempWid; //조 내부 서브프레임의 x좌표 값.var tempWid; // The x-coordinate value of the inner subframe.

var tempHei; //조 내부 서브프레임의 y좌표 값.var tempHei; // The y coordinate value of the inner subframe of the pair.

var fleftTem; //조 내부 하부 서브프레임의 x위치값 임시변수.var fleftTem; // Temporary variable for x position of lower subframe in the column

var ftopTem; //조 내부 하부 서브프레임의 y위치값 임시변수.var ftopTem; // Temporary variable for position y of the lower subframe in the column.

var fwidthTem, fheightTem;var fwidthTem, fheightTem;

var fwidth = fwid[j] * (fred[i]/100); //서브프레임의 폭값.var fwidth = fwid [j] * (fred [i] / 100); // Width of subframe.

var fheight = fhei[j] * (fred[i]/100);//서브프레임의 높이값var fheight = fhei [j] * (fred [i] / 100); // height of subframe

var fleft = 0; //서브프레임의 좌측상부 x위치값.var fleft = 0; // Upper left x position value of the subframe.

var ftop = 0; //서브프레임의 좌측상부 y위치값.var ftop = 0; // The upper left y position value of the sub frame.

zIdx = zIdx--;zIdx = zIdx--;

var temp = diff[j]; //서브프레임 이름분류값.var temp = diff [j]; // Subframe name classification value.

switch(j)switch (j)

case 0:case 0:

fleft = fixWid;fleft = fixWid;

ftop = fixHei;ftop = fixHei;

fleftTem = fleft;fleftTem = fleft;

ftopTem = ftop;ftopTem = ftop;

fwidthTem = fwidth;fwidthTem = fwidth;

fheightTem = fheight;fheightTem = fheight;

tempWid = fleft + fwidth;tempWid = fleft + fwidth;

break;break;

case 1:case 1:

fleft = tempWid;fleft = tempWid;

ftop = tempHei;ftop = tempHei;

fixWid = fleft;fixWid = fleft;

fixHei = ftop + fheight;fixHei = ftop + fheight;

tempWid += fwidth;tempWid + = fwidth;

break;break;

case 2:case 2:

fleft = tempWid;fleft = tempWid;

ftop = tempHei;ftop = tempHei;

tempWid = fleftTem - fwidthTem;tempWid = fleftTem-fwidthTem;

tempHei = ftopTem + fheightTem;tempHei = ftopTem + fheightTem;

break;break;

case 3:case 3:

fleft = tempWid;fleft = tempWid;

ftop = tempHei;ftop = tempHei;

break;break;

genLayer("fro"+i+temp,left,ftop, fwidth, fheight,genLayer ("fro" + i + temp, left, ftop, fwidth, fheight,

hideName, zIdx, '<IMG NAME="froback' + i + temp +hideName, zIdx, '<IMG NAME = "froback' + i + temp +

'"SRC=""WIDTH="'+fwidth+'"HEIGHT="'+fheight+'">');'"SRC =" "WIDTH ="' + fwidth + '"HEIGHT ="' + fheight + '">');

for ( var m = 0; m < lred.length; m++) //좌측면 서브프레임의 생성.for (var m = 0; m <lred.length; m ++) // create left subframe

var lwidth = fwid[0] * (lred[m] / 100);var lwidth = fwid [0] * (lred [m] / 100);

var lheight = fhei[0] * (lred[m] / 100);var lheight = fhei [0] * (lred [m] / 100);

var lleft = fx - lwidth;var lleft = fx-lwidth;

var ltop = fy - (lheight - fhei[0]) / 2;var ltop = fy-(lheight-fhei [0]) / 2;

var zIdx = (m == 0 ? 101 : ++zIdx);var zIdx = (m == 0? 101: ++ zIdx);

genLayer("lef" + m, lleft, ltop, lwidth, lheight,genLayer ("lef" + m, lleft, ltop, lwidth, lheight,

hideName, zIdx, '<IMG NAME= "lefback' + m +hideName, zIdx, '<IMG NAME = "lefback' + m +

'"SRC=""WIDTH="'+lwidth+'"HEIGHT="'+lheight+'">');'"SRC =" "WIDTH ="' + lwidth + '"HEIGHT ="' + lheight + '">');

for (var n = 0; n < rred.lenght; n++) // 우측면 서브프레임의 생성.for (var n = 0; n <rred.lenght; n ++) // Create right side subframe.

var rwidth = fwid[2] * (rred[n] / 100);var rwidth = fwid [2] * (rred [n] / 100);

var rheight = fhei[2] * (rred[n] / 100);var rheight = fhei [2] * (rred [n] / 100);

var rleft = (n == 0 ? (fx + fwid[0] + fwid[1] + fwid[2]) : (rleft + rwidth));var rleft = (n == 0? (fx + fwid [0] + fwid [1] + fwid [2]): (rleft + rwidth));

var rtop = fy - (rheight - fhei[2]) / 2;var rtop = fy-(rheight-fhei [2]) / 2;

var zIdx = (n == 0 ? 101 : ++zIdx);var zIdx = (n == 0? 101: ++ zIdx);

genLayer("rig" + n, rleft, rtop, rwidth, rheight,genLayer ("rig" + n, rleft, rtop, rwidth, rheight,

hideName, zIdx, '<IMG NAME="rigback' + n +hideName, zIdx, '<IMG NAME = "rigback' + n +

'"SRC=""WIDTH="'+rwidth+'" HEIGHT="'+rheight+'">');'"SRC =" "WIDTH ="' + rwidth + '"HEIGHT ="' + rheight + '">');

function subimageView();function subimageView ();

function genLayer(sName,sLeft,sTop,sWdh,sHgt,zIdx,sVis,zIdx,copy) // Layer의 생성.function genLayer (sName, sLeft, sTop, sWdh, sHgt, zIdx, sVis, zIdx, copy) // Create Layer.

if(NN) document.writeln('<LAYER NAME="'+sName+'"LEFT='+sLeft+if (NN) document.writeln ('<LAYER NAME = "' + sName + '" LEFT =' + sLeft +

' TOP=' + sTop + ' WIDTH=' + sWdh + ' HEIGHT=' + sHgt +'TOP =' + sTop + 'WIDTH =' + sWdh + 'HEIGHT =' + sHgt +

' VISIBILITY="' + sVis + '" z-Index=' + zIdx + '>' + copy +'VISIBILITY = "' + sVis + '" z-Index =' + zIdx + '>' + copy +

'</LAYER>');'</ LAYER>');

else document.writeln('<DIV ID="' + sName +else document.writeln ('<DIV ID = "' + sName +

'" STYLE="position:absolute; overflow:none; left: ' +'"STYLE =" position: absolute; overflow: none; left: '+

sLeft+'px;top:'+sTop+'px;width:'+sWdh+'px;height:'+sLeft + 'px; top:' + sTop + 'px; width:' + sWdh + 'px; height:' +

sHgt+'px;visibility:'+sVis + '; z-Index=' + zIdx + '">' +sHgt + 'px; visibility:' + sVis + '; z-Index = '+ zIdx +' "> '+

copy + '</DIV>');copy + '</ DIV>');

function hideSlide(name) refSlide(name).visibility = hideName;function hideSlide (name) refSlide (name) .visibility = hideName;

function showSlide(name) refSlide(name).visibility = showName;function showSlide (name) refSlide (name) .visibility = showName;

function refSlide(name) if(NN) return document.layers[name];function refSlide (name) if (NN) return document.layers [name];

else return eval('document.all.' + name + '.style');else return eval ('document.all.' + name + '.style');

function subimageView() // 각 서브프레임의 Image출력.function subimageView () // Image output of each subframe.

for (var i = 0; i < fred.length; i++) // 정면 서브프레임의 Image출력for (var i = 0; i <fred.length; i ++) // Output image of front subframe

for (var j = 0; j < 4; j++)for (var j = 0; j <4; j ++)

var imgsName = "froback" + i + diff[j];var imgsName = "froback" + i + diff [j];

var layerName = "fro" + i + diff[j];var layerName = "fro" + i + diff [j];

if (document.all) tempImgs[j] = new Image();if (document.all) tempImgs [j] = new Image ();

tempImgs[j].src='image/back/fro/'+i+diff[j]+'.jpg';tempImgs [j] .src = 'image / back / fro /' + i + diff [j] + '. jpg';

document.imgsName.src = tempImgs[j].src;document.imgsName.src = tempImgs [j] .src;

showSlide(layerName);showSlide (layerName);

else tempImgs[j] = new Image();else tempImgs [j] = new Image ();

tempImgs[j].src='image/back/fro/'+i+diff[j]+'.jpg';tempImgs [j] .src = 'image / back / fro /' + i + diff [j] + '. jpg';

document.layers[layerName].document.images[0].src = tempImgs[j].src;document.layers [layerName] .document.images [0] .src = tempImgs [j] .src;

showSlide(layerName);showSlide (layerName);

for (var m = 0; m < lred.length; m++) // 좌측면 서브프레임의 Image출력.for (var m = 0; m <lred.length; m ++) // Image output of the left subframe.

var imgsName = "leftback" + m;var imgsName = "leftback" + m;

var layerName = "lef" + m;var layerName = "lef" + m;

if (document.all) tempImgs[m] = new Image();if (document.all) tempImgs [m] = new Image ();

tempImgs[m].src = 'image/back/lef/' + m +'.jpg';tempImgs [m] .src = 'image / back / lef /' + m + '. jpg';

document.imgsName.src = tempImgs[m].src;document.imgsName.src = tempImgs [m] .src;

showSlide(layerName);showSlide (layerName);

else tempImgs[m] = new Image();else tempImgs [m] = new Image ();

tempImgs[m].src = 'image/back/lef/' + m +'.jpg';tempImgs [m] .src = 'image / back / lef /' + m + '. jpg';

document.layers[layerName].document.images[0].src =document.layers [layerName] .document.images [0] .src =

tempImgs[m].src;tempImgs [m] .src;

showSlide(layerName);showSlide (layerName);

for (var n = 0; n < rred.length; n++) //우측면 서브프레임의 Image출력.for (var n = 0; n <rred.length; n ++) // Image output of the right subframe.

var imgsName = "rigback" + n;var imgsName = "rigback" + n;

var layerName = "rig" + n;var layerName = "rig" + n;

if (document.all) tempImgs[n] = new Image();if (document.all) tempImgs [n] = new Image ();

tempImgs[n].src = 'image/back/rig/' + n +'.jpg';tempImgs [n] .src = 'image / back / rig /' + n + '. jpg';

document.imgsName.src = tempImgs[n].src;document.imgsName.src = tempImgs [n] .src;

showSlide(layerName);showSlide (layerName);

else tempImgs[n] = new Image();else tempImgs [n] = new Image ();

tempImgs[n].src = 'image/back/rig/' + n +'.jpg';tempImgs [n] .src = 'image / back / rig /' + n + '. jpg';

document.layers[layerName].document.images[0].src =document.layers [layerName] .document.images [0] .src =

tempImgs[n].src;tempImgs [n] .src;

showSlide(layerName);showSlide (layerName);

//-></SCRIPT></HEAD><BODY><SCRIPT LANGUAGE="JavaScript"><!--//-> </ SCRIPT> </ HEAD> <BODY> <SCRIPT LANGUAGE = "JavaScript"> <!-

function subframeLayer();function subframeLayer ();

</SCRIPT></BODY></HTML></ SCRIPT> </ BODY> </ HTML>

5. 3차원 가상공간 디스플레이5. 3D virtual space display

그러면, 본 발명에 따라 모니터와 같은 디스플레이 상에 3차원 가상현실공간을 디스플레이하는 과정에 대해서 살펴보기로 한다. 도 12에는 본 발명의 바람직한 실시예에 따라 3차원 가상현실공간을 구현하는 장치의 개략적인 구성이 도시되어 있다.Next, a process of displaying a 3D virtual reality space on a display such as a monitor according to the present invention will be described. 12 is a schematic diagram of an apparatus for implementing a 3D virtual reality space according to a preferred embodiment of the present invention.

도면을 참조하면, 본 장치는 프로그램된 3차원 가상공간 콘텐츠 파일을 해석하고 입력장치(20)를 통해 입력되는 이벤트 신호에 따라 3차원 가상공간의 동적변환을 지시하는 해석부(30)와, 해석된 결과에 따라 서브프레임을 생성하고 지시된 서브프레임의 동적변환을 수행하고 각 서브프레임에 대응되는 이미지를 로딩시키는 실행부(40)를 포함한다.Referring to the drawings, the apparatus analyzes the programmed three-dimensional virtual space content file and the analysis unit 30 for instructing dynamic conversion of the three-dimensional virtual space in accordance with the event signal input through the input device 20, and analysis The execution unit 40 generates a subframe according to the result, performs dynamic transformation of the indicated subframe, and loads an image corresponding to each subframe.

상기 해석부(30)는 예를 들어 HTML계열의 언어로 프로그램된 3차원 가상공간 파일을 해석하는 HTML해석부(31)와; HTML문서 내에 첨가된 자바스크립트를 실행하기 위해 이를 해석하는 스크립트 해석부(32);를 포함할 수 있다.The analysis unit 30 includes, for example, an HTML analysis unit 31 for analyzing a three-dimensional virtual space file programmed in an HTML-based language; It may include a; script interpreter 32 for interpreting this to execute the JavaScript added in the HTML document.

또한, 상기 실행부(40)는 메인프레임(300) 내에 서브프레임을 생성하고 상기 해석부(30)로부터의 이벤트 결과 신호에 따라 서브프레임의 동적 변환을 수행하는 프레임 실행부(41)와; 상기 서브프레임에 대해 프레임 이미지를 링크시키고 서브프레임의 동적 변환에 따라 그에 대응하는 프레임 이미지를 변환하여 제공하는 프레임 이미지 관리부(42)와; 서브프레임 내에 레이어 이미지를 삽입하고 서브프레임 변환에 따른 레이어 이미지의 변환을 제공하는 레이어 이미지 관리부(43);를 포함한다.The execution unit 40 may further include: a frame execution unit 41 generating a subframe in the main frame 300 and performing dynamic conversion of the subframe according to the event result signal from the analysis unit 30; A frame image manager 42 for linking a frame image with respect to the subframe and converting and providing a frame image corresponding to the subframe according to the dynamic conversion of the subframe; And a layer image manager 43 for inserting the layer image into the subframe and providing a transformation of the layer image according to the subframe transformation.

상기 실행부(40)는 데이터 베이스와 연동되어 그로부터 프레임 데이터와 이미지 데이터를 제공받는데, 이들은 각각 프레임 DB(50)와 이미지 DB(60)에 저장되어 있다. 상기 프레임 데이터의 개략적인 예는 도 14에 도시된 바와 같으며, 이미지 데이터의 개략적인 예는 도 15에 도시된 바와 같다.The execution unit 40 is interlocked with the database and receives frame data and image data therefrom, which are stored in the frame DB 50 and the image DB 60, respectively. A schematic example of the frame data is as shown in FIG. 14, and a schematic example of the image data is as shown in FIG. 15.

상기 실행부(30)의 동작에 따른 결과는 GUI(Graphic User Interface) 유니트(70)를 통해 표시장치(80)에 디스플레이된다.The result of the operation of the execution unit 30 is displayed on the display device 80 through the GUI (Graphic User Interface) unit 70.

본 발명에 따른 3차원 가상현실공간의 구현은 인터넷을 기반으로 한 서버와 클라이언트 시스템에 더욱 유용하다. 도 13에는 본 발명의 바람직한 실시예에 따라 인터넷을 기반으로 한 3차원 가상현실공간 구현시스템의 주요 구성이 도시되어 있다.Implementation of the three-dimensional virtual reality space according to the present invention is more useful for the server and client system based on the Internet. FIG. 13 illustrates a main configuration of a 3D virtual reality realization system based on the Internet according to a preferred embodiment of the present invention.

서버(600)는 인터넷을 통해 클라이언트 단말(500)에 대해 본 발명에 따른 3차원 가상현실공간 콘테츠 파일을 제공한다. 상기 3차원 가상현실공간 파일은 바람직하게 전술한 바와 같이 HTML과 자바스크립트로 작성된 웹페이지 파일로서 파일 DB(51)에 저장된다.The server 600 provides a 3D virtual reality content file according to the present invention to the client terminal 500 through the Internet. The three-dimensional virtual reality space file is preferably stored in the file DB 51 as a web page file written in HTML and JavaScript as described above.

클라이언트 단말(500)은 서버(600)가 제공하는 3차원 가상현실공간 웹페이지 파일을 해석하고 이를 표시장치(80)에 디스플레이할 수 있도록 그래픽 사용자 인터페이스를 지원하는 예컨대, Netscape나 Internet Explorer와 같은 브라우저(501)를 채용하고 있다. 본 발명에 따르면, 상기 3차원 가상현실공간 콘텐츠 파일은 HTML와 자바스크립트를 사용하여 간단하게 작성될 수 있는데, 이것은 별도의 브라우저나 클라이언트 프로그램의 설치없이 기존의 Netscape나 Internet Explorer와 같은 웹브라우저에 의해 해석되고 실행되어 디스플레이될 수 있다.The client terminal 500 supports, for example, a browser such as Netscape or Internet Explorer, which supports a graphical user interface for interpreting the 3D virtual reality web page file provided by the server 600 and displaying it on the display device 80. 501 is adopted. According to the present invention, the 3D virtual reality content file can be simply created using HTML and JavaScript, which can be created by a web browser such as Netscape or Internet Explorer without installing a separate browser or client program. It can be interpreted and executed to be displayed.

사용자가 클라이언트 단말(500)을 사용하여 서버(600)에 접속하면, 서버(600)는 3차원 가상현실공간 콘텐츠 웹페이지 파일을 파일 DB(51)로부터 클라이언트 단말(500)로 제공한다. 그러면, 클라이언트 단말(500)은 브라우저(501)를 사용하여 제공된 3차원 가상현실공간 파일을 해석하고 이를 표시장치(80)에 디스플레이 한다.When the user accesses the server 600 using the client terminal 500, the server 600 provides the 3D virtual reality content web page file from the file DB 51 to the client terminal 500. Then, the client terminal 500 interprets the provided 3D virtual reality file using the browser 501 and displays it on the display device 80.

이하에서의 설명은 도 12 및 도 13을 참조로 이루어지되, 도 12에 도시된 3차원 가상현실공간 구현장치는 본 발명의 또 다른 측면인 도 13의 서버와 클라이언트 시스템에 의해 적절하게 달성될 수 있음을 이해하여야 한다.The following description will be made with reference to FIGS. 12 and 13, wherein the apparatus for implementing a 3D virtual space shown in FIG. 12 may be appropriately achieved by the server and client system of FIG. 13, which is another aspect of the present invention. Should be understood.

5.1 기본 3차원 가상공간의 디스플레이5.1 Display of basic three-dimensional virtual space

기본적인 3차원 가상현실공간은 도 4에 도시된 메인프레임(300) 내에서 디스플레이된다. 상기 메인프레임(300)은 관찰자가 볼 수 있는 시각적인 경계를 이루며, 관찰자의 입장에서는 정면 서브프레임(1a)(1b)(1c)(1d)에서 가장 근접한 피사체 이미지를 보게 된다. 따라서, 본 실시예에서는 상기 정면 서브프레임(1a)(1b)(1c)(1d)을 기준 서브프레임으로 설정하여 여기에서 이미지가 100% 확대되도록 한다. 이 경우, 나머지 정면 서브프레임(2a∼6a)(2b∼6b) (2c∼6c)(2d∼6d)들은 상대적으로 이미지의 크기가 축소된 상태이고, 측면 서브프레임(1L∼6L)(1R∼6R)들은 상대적으로 이미지의 크기가 확대된 상태일 것이다. 실제로 사용자가 자신의 PC 또는 클라이언트 단말의 표시장치를 통해 보게 되는 화면은 상기 메인프레임(300)의 경계 내부 화면이다.The basic three-dimensional virtual reality space is displayed in the mainframe 300 shown in FIG. The main frame 300 forms a visual boundary visible to the observer, and the observer views the subject image closest to the front subframes 1a, 1b, 1c, and 1d. Therefore, in the present embodiment, the front subframes 1a, 1b, 1c, and 1d are set as reference subframes so that the image is enlarged 100%. In this case, the remaining front subframes 2a-6a (2b-6b) (2c-6c) (2d-6d) have a relatively reduced size of the image, and the side subframes 1L-6L (1R-1). 6R) will be relatively enlarged in size. In fact, the screen that the user sees through the display device of his PC or the client terminal is a screen inside the boundary of the mainframe 300.

도 16을 참조하면, 서버(600)로부터 3차원 가상현실공간 파일이 클라이언트 단말(500)로 로딩되면 브라우저(501)의 HTML 해석부(도12의 31 참조)와 스크립트 해석부(32 참조)에 의해 파일이 해석되어 실행된다(단계 S510).Referring to FIG. 16, when the 3D virtual reality file is loaded from the server 600 to the client terminal 500, the HTML interpreter (see 31 in FIG. 12) and the script interpreter (see 32) of the browser 501 may be used. The file is interpreted and executed (step S510).

이어서 해석된 프로그램에 따라 서브프레임이 생성된다(단계 S520). 최초, 관찰자는 정면을 주시하고 있으므로 서버(600)로부터 클라이언트 단말(500)로 접수되는 3차원 가상현실공간 파일은 도 9에서 메인프레임(300) 내부의 정면 이미지가 될 것이다. 따라서, 정면 서브프레임(1a∼6a)(1b∼6b)(1c∼6c)(1d∼6d)들과 레이어 서브프레임(L)이 생성된다. 이때, 관찰자가 직접 보지 못하는 메인프레임(300) 외부 영역의 서브프레임들 역시 생성되는데, 좌측면 서브프레임(1L∼6L)과 우측면 서브프레임(1R∼6R)들이 그것이다.Subframes are then generated in accordance with the interpreted program (step S520). First, since the observer is looking at the front, the 3D virtual reality file received from the server 600 to the client terminal 500 will be the front image of the inside of the mainframe 300 in FIG. 9. Thus, the front subframes 1a to 6a (1b to 6b) (1c to 6c) (1d to 6d) and the layer subframe L are generated. At this time, subframes outside the main frame 300 that are not directly viewed by the observer are also generated, such as the left side subframes 1L to 6L and the right side subframes 1R to 6R.

상기 서브프레임들은 전술한 바와 같이 대응하는 프레임 이미지들의 상호 축소율과 동일한 축소율의 비율로 생성된다. 따라서, 정면 서브프레임(1a)(1b)을 프레임 이미지가 100% 확대되는 기준 서브프레임으로 설정한 경우, 메인프레임(300) 외부의 좌우측면 서브프레임(1L-6L)(1R-6R)에서는 이미지가 100%보다 더 큰 크기로 확대된 상태로 된다. 비록 정면 서브프레임에 속하기는 하지만 서브프레임(1a-6a)(1b-6b)는 각각 좌우측면 서브프레임(1L-6L)(1R-6R)과 연속적인 측면 이미지를 구성하게 된다.The subframes are generated at the same reduction ratio as the mutual reduction ratio of the corresponding frame images as described above. Therefore, when the front subframes 1a and 1b are set as the reference subframes in which the frame image is enlarged 100%, the left and right subframes 1L-6L and 1R-6R outside the main frame 300 are images. Is enlarged to a size larger than 100%. Although belonging to the front subframe, the subframes 1a-6a and 1b-6b form a continuous side image with the left and right subframes 1L-6L and 1R-6R, respectively.

이상과 같이 서브프레임들이 생성되면, 각각의 서브프레임들에는 이미지들이 삽입되어 생성된다(단계 S530). 즉, 정면 서브프레임(1a∼6a)에는 도 11에 도시된 정면 프레임 이미지(FF1a)(FF2a)를 포함하는 이미지들이 삽입되고, 정면 서브프레임(1b∼6b)에는 정면 프레임 이미지(FF1b)(FF2b)를 포함한 이미지들이 삽입되고, 정면 서브프레임(1c∼6c)에는 정면 프레임 이미지(FF1c)(FF2c)를 포함하는 이미지들이 삽입되고, 정면 서브프레임(1d∼6d)에는 정면 프레임 이미지(FF1d)(FF2d)를 포함하는 이미지들이 삽입된다.When the subframes are generated as described above, images are inserted and generated in the respective subframes (step S530). That is, images including the front frame images FF1a and FF2a shown in FIG. 11 are inserted into the front subframes 1a to 6a, and the front frame images FF1b and FF2b to the front subframes 1b to 6b. ), Images including the front frame images FF1c and FF2c are inserted into the front subframes 1c to 6c, and images including the front frame images FF1d to the front subframes 1d to 6d. Images containing FF2d) are inserted.

또한, 좌측면 서브프레임(1L∼6L)에는 도 10에 도시된 바와 같은 좌측면 프레임 이미지(SF1∼SF6)들이 삽입되고, 우측면 서브프레임(1R∼6R)에도 같은 방식으로 이미지들이 삽입된다. 나아가, 고유축소율을 가진 연속적인 서브프레임이 아닌 레이어 서브프레임(L)에는 도 6g로 표시되는 레이어 이미지(FS7)가 삽입된다.In addition, the left side frame images SF1 to SF6 as shown in FIG. 10 are inserted into the left side subframes 1L to 6L, and the images are also inserted into the right side subframes 1R to 6R in the same manner. Furthermore, the layer image FS7 shown in FIG. 6G is inserted into the layer subframe L rather than the continuous subframe having the intrinsic reduction rate.

이러한 상태에서 관찰자의 모니터 디스플레이와 일치하는 메인프레임(300) 내에는 3차원 가상현실공간이 입체적인 원근감을 가지고 실현되게 된다. 상기 각 서브프레임 내의 이미지는 그 자체로 선형적인 원근감을 가지는데 이것은 최초 카메라 촬영시에 표현된 광학적인 원근감이다. 이러한 자체 원근감을 가진 서브프레임 내의 이미지들은 고유 축소율에 따라서 인접하는 서브프레임의 프레임 이미지에 대해 다시 축소되면서 연속적으로 표현되는데 이것은 디지털적인 크기 변화에 따른 원근감이다. 따라서, 본 발명에 따른 3차원 가상현실공간은 광학적인 원근감과 디지털적인 원근감, 이 두가지의 결합에 의해 표현된다.In this state, the three-dimensional virtual reality space is realized with a three-dimensional perspective in the main frame 300 corresponding to the monitor display of the observer. The image in each subframe has its own linear perspective, which is the optical perspective expressed at the time of the first camera shot. The images in the subframes having their own perspectives are continuously displayed while being reduced again with respect to the frame images of the adjacent subframes according to the intrinsic reduction ratio, which is a perspective of the digital size change. Therefore, the three-dimensional virtual reality space according to the present invention is represented by the combination of the two, optical perspective and digital perspective.

5.2 기본 3차원 가상공간의 동적 변환 디스플레이5.2 Dynamic transformation display of basic three-dimensional virtual space

최초 3차원 가상현실공간 이미지가 디스플레이된 상태에서, 사용자는 공간이동을 위한 이벤트를 입력할 수 있는데 이것은 마우스나 키보드 또는 조이스틱과 같은 포인팅수단에 의해 가능하다. 예를 들어, 키보드의 상하방 화살표 버튼을 눌러 공간에서의 전후진을 선택하거나, 좌우방향 화살표 버튼을 눌러 좌측 또는 우측으로 방향전환을 선택할 수 있다. 대안으로서, 화면 내에 방향전환을 위한 화살표 아이콘을 제공하거나 또는 사용자가 마우스로 화면의 전면, 좌우측면을 선택함으로써 공간이동을 선택할 수도 있다. 이러한 방향전환과 공간이동의 선택방법은 본 실시예에 의해 한정되지 않으며 당업자의 기술수준에서 다양한 예들이 적용될 수 있음을 이해하여야 한다.With the first three-dimensional virtual reality image displayed, the user can enter an event for teleportation by means of a pointing means such as a mouse, keyboard or joystick. For example, the up and down arrow buttons on the keyboard may be used to select forward and backward movements in space, or the left and right arrow buttons may be used to select a change direction to the left or right. Alternatively, the space movement may be selected by providing an arrow icon for redirection in the screen or by selecting a front, left and right sides of the screen with a mouse. It is to be understood that the method of selecting the redirection and the space movement is not limited by the present embodiment, and various examples may be applied to those skilled in the art.

단계 S540에서는 사용자로부터 이러한 공간이동 또는 방향전환의 이벤트가 입력되었는지를 판단하게 된다. 그 결과 이벤트의 입력이 있으면 그에 따라 서브프레임들의 동적변환이 이루어진다(단계 S550).In step S540 it is determined whether the event of such space movement or direction change from the user. As a result, if there is an input of an event, dynamic conversion of subframes is performed accordingly (step S550).

예를 들어, 사용자가 3차원 공간내에서 '전진'을 선택한 경우, 이것은 메인프레임(300) 내에서 상대적으로 서브프레임들이 관찰자의 방향으로 다가오도록 동적변환하는 것을 의미한다. 따라서, 관찰자에게 가장 근접한 서브프레임(1a)(1b)(1c)(1d)들이 메인프레임(300) 바깥으로 밀려나면서 안쪽(즉, 원거리)에서부터 나머지 서브프레임들이 한단계씩 앞으로 쉬프트되어, 서브프레임(2a)는 서브프레임(1a)를 대체하게 되고, 다시 서브프레임(3a)는 서브프레임(2a)를 대체하는 식이 된다. 이때, 각 서브프레임들은 그 상위 서브프레임의 위치로 이동하는 동시에 크기 또한 상위 서브프레임의 크기와 같도록 변환된다. 이것은 관찰자의 시각에서, 서브프레임(2a)(2b)(2c)(2d)이 메인프레임(300)의 경계까지 전진하여 기존의 서브프레임(1a)(1b)(1c)(1d)을 대체하면서 그 크기 또한 확대되어 새로운 기준 서브프레임이 됨을 의미한다.For example, if the user selects 'forward' in the three-dimensional space, this means that the subframes in the mainframe 300 are relatively transformed in the direction of the observer. Accordingly, the subframes 1a, 1b, 1c, and 1d closest to the observer are pushed out of the mainframe 300, and the remaining subframes are shifted forward by one step from the inside (i.e., the distant). 2a) replaces the subframe 1a, and subframe 3a replaces the subframe 2a. At this time, each subframe moves to the position of the upper subframe and is converted to have the same size as that of the upper subframe. This is from the observer's point of view, with subframes 2a, 2b, 2c and 2d advancing to the boundaries of the mainframe 300 to replace the existing subframes 1a, 1b, 1c and 1d. Its size also means that it becomes a new reference subframe.

상기 서브프레임들의 동적 변환과 동시에 그에 대응하는 각각의 프레임 이미지들도 변환하게 된다(단계 S560). 즉, 전술한 바와 같이 서브프레임들이 위치이동과 동시에 크기가 확대되는 만큼 각각의 프레임 이미지들도 동일한 위치 이동과 이미지의 확대를 수반하게 된다. 예를 들어, 서브프레임(2a)(2b)(2c)(2d)이 서브프레임(1a)(1b)(1c)(1d)의 위치로 이동하였을 때, 그것에 대응하는 프레임 이미지(FF2a)(FF2b)(FF2c)(FF2d)는 100%로 확대되어 기준 서브프레임 이미지가 될 것이다.Simultaneously with the dynamic conversion of the subframes, respective frame images corresponding thereto are also converted (step S560). That is, as described above, as the subframes are enlarged in size at the same time as the position movement, the respective frame images also have the same position movement and enlargement of the image. For example, when the subframes 2a, 2b, 2c, and 2d move to the positions of the subframes 1a, 1b, 1c, and 1d, the frame images FF2a and FF2b corresponding thereto. ) FF2c and FF2d will be enlarged to 100% to become the reference subframe image.

동시에 레이어 이미지가 삽입되는 레이어 서브프레임(L)은 그 크기가 확대되며, 따라서 상기 레이어 이미지(SF7) 또한 디지털적인 확대가 이루어지게 된다. 이것은 관찰자로 하여금 정면벽(220)을 향해 한걸음 더 다가간 느낌을 주게 될 것이다.At the same time, the size of the layer subframe L into which the layer image is inserted is enlarged, so that the layer image SF7 is also digitally enlarged. This will give the viewer a step closer towards the front wall 220.

본 발명의 더욱 바람직한 실시예에 따르면, 상기 서브프레임의 이동과 크기 변화는 일시적으로 급격하게 이루어지는 것이 아니라 점진적으로 이루어진다. 구체적으로, 하위 서브프레임은 상위 서브프레임 위치로 또는 그 반대로, 예컨대 1픽셀 단위씩 이동할 수 있다. 서브프레임의 크기 또한 이동과 함께 점진적으로 확대되어 관찰자로 하여금 급격한 공간이동과 이미지의 크기 변화를 느낄 수 없도록 하는 것이 바람직하다.According to a more preferred embodiment of the present invention, the movement and the size change of the subframe are not made suddenly but suddenly. In detail, the lower subframe may move to the upper subframe position or vice versa, for example, by 1 pixel unit. The size of the subframe is also gradually enlarged with the movement so that the viewer cannot feel the rapid spatial movement and the change in the size of the image.

상기 이벤트 입력 단계 S540에서 만약 측면으로의 방향전환이 선택되었다면 이것은 관찰자(10)가 정지된 상태에서 고개를 좌측 또는 우측으로, 바람직하게 약 45도 돌렸을 경우에 대응된다.If the turn to the side is selected in the event input step S540, this corresponds to when the observer 10 is turned to the left or the right, preferably about 45 degrees.

예를 들어, 좌측으로 고개를 돌린 경우에 대해서 살펴보면, 반대편에 있는 우측단 정면 서브프레임(1b)이 메인프레임(300) 바깥으로 밀려나게 되고 대신에 좌측면 서브프레임(6L)이 좌측단 정면 서브프레임(1a)에 이어서 메인프레임(300) 내로 들어오게 된다. 이에 따라, 나머지 서브프레임들은 그에 상응하는만큼 수평 방향으로 위치이동을 하게 될 것이다. 전술한 예와는 달리, 좌측면 서브프레임(6L)이 정면 서브프레임(1a) 위치로 이동할 때 그 크기는 축소되지 않는다. 즉, 측면 서브프레임(6L)의 프레임 이미지(도 10의 SF6)는 정면 프레임 이미지(FF1a)에 대한 상대적인 확대율을 그대로 유지하게 되는데, 이것은 이미지의 연속성을 보장하기 위한 것이다.For example, in the case of turning the head to the left side, the right side front subframe 1b on the opposite side is pushed out of the main frame 300, and the left side subframe 6L is instead of the left front subframe. Subsequent to the frame 1a, it enters into the main frame 300. Accordingly, the remaining subframes will be moved in the horizontal direction correspondingly. Unlike the above-described example, the size is not reduced when the left side subframe 6L moves to the front subframe 1a position. That is, the frame image (SF6 of FIG. 10) of the side subframe 6L maintains the relative magnification with respect to the front frame image FF1a, which is to ensure the continuity of the image.

만약, 사용자가 마우스 등을 사용하여 더욱 좌측으로 방향전환을 선택하는이벤트를 입력하면 좌측 서브프레임(5L)(4L)등이 차례로 메인프레임(300) 내로 집입하게 되고 그에 따른 정면 서브프레임들은 우측으로 밀리면서 그 일부는 메인프레임(300) 바깥으로 밀려나가게 될 것이다. 이때 좌측 서브프레임(300)들 역시 축소되지 않고 상대적인 확대율을 유지한 채로 그 위치만이 이동하게 된다. 위와 같은 동작은 마치 도 9의 서브프레임 구성도에 있어서 점선으로 도시한 것처럼 메인프레임(300) 자체가 좌측으로 위치이동하는 것과 동일한 효과로 볼 수 있다. 이 경우 예를 들어, 서브프레임(1L)의 경우에는 이미지의 일부만이 메인프레임(300) 내에 들어가고 모니터에 디스플레이 될 것이다.If the user inputs an event for selecting a direction to the left by using a mouse or the like, the left subframes 5L, 4L, etc. are sequentially introduced into the main frame 300 and the front subframes are moved to the right. Some of it will be pushed out of the mainframe 300. At this time, the left subframe 300 is also not reduced, and only its position moves while maintaining a relative magnification. The above operation can be seen as having the same effect as the main frame 300 itself is moved to the left as shown in the dotted line in the subframe diagram of FIG. In this case, for example, in the case of the subframe 1L, only a part of the image will be contained in the mainframe 300 and displayed on the monitor.

나아가, 관찰자의 위치에 따라 특정 지점에서 고개를 좌우로 돌려 방향전환을 하였을 경우 메인프레임(300) 내에 디스플레이되는 좌우측 서브프레임(300)의 수는 서로 다르다. 다시 말해, 도 9에서, 관찰자가 최초 위치에 있을 때 디스플레이되는 가장 왼쪽 서브프레임은 (1L)이 될 것이지만, 만약 관찰자가 조금 전진한 위치에서 디스플레이될 수 있는 가장 왼쪽 서브프레임은 그보다 하위 서브프레임인 (2L) 또는 (3L) 등이 될 것이다. 바람직하게, 이러한 서브프레임의 디스플레이 범위는 실제공간과 원근감을 고려하여 적절하게 프로그램된다.Furthermore, when the head is turned to the left or right at a specific point and the direction is changed, the number of left and right subframes 300 displayed in the main frame 300 is different from each other. In other words, in Fig. 9, the leftmost subframe displayed when the observer is in the initial position will be (1L), but if the leftmost subframe that can be displayed in the position where the observer is slightly advanced is the lower subframe. (2L) or (3L) and so on. Preferably, the display range of these subframes is suitably programmed taking into account real space and perspective.

<복합 3차원계의 응용><Application of Complex 3D System>

그러면, 좀 더 복잡한 복합적인 3차원 가상현실공간의 구현 실시예에 대해서 살펴보기로 한다.Next, a description will be given of an embodiment of a more complicated complex 3D virtual reality space.

도 17a에는 본 발명의 또 다른 측면에 따른 바람직한 복합 3차원계가 평면도로 나타나 있다. 상기 공간은 각각 직교하는 네 개의 복도(700)(810)(820)(900) 그리고 이들이 만나는 교차로(800)로 구성된다. 편의상 복도(900)에는 액자(1)가 결려있는 막다른 정면벽(930)이 형성된다. 카메라 및 관찰자의 위치는 최초 지점(Po)에서부터 점차 앞으로 전진한다.17A illustrates a preferred composite three-dimensional system in accordance with another aspect of the present invention in plan view. The space consists of four corridors 700, 810, 820, 900 and intersections 800 where they meet orthogonally. For convenience, the corridor 900 is formed with a dead front wall 930 in which the picture frame 1 is formed. The position of the camera and observer gradually advances from the initial point Po.

카메라 및/또는 관찰자가 최초 지점(Po)에 있을 때 서브프레임과 대응하는 프레임 이미지는 도 18a에 나타나 있다. 이들 도면들을 참조하면, 정면카메라(도2d의 C1)의 화각 경계선은 벽(815)(825)의 지점(W1)(W2)과 만나게 되고, 측면카메라(C2)는 그로부터 약 45도 좌측으로 회전하여 화각의 좌측 경계선이 벽(710)과 만나게 된다.The frame image corresponding to the subframe when the camera and / or observer is at the initial point Po is shown in FIG. 18A. Referring to these figures, the angle of view boundary of the front camera (C1 in FIG. 2D) meets the points W1 (W2) of the walls 815 and 825, and the side camera C2 rotates about 45 degrees left therefrom. The left boundary of the angle of view meets the wall 710.

이러한 상태에서, 정면 카메라(C1)는 복도(700)의 좌측벽(710')을 포함한 정면 공간을 촬영하게 되고 그 이미지는 도 18a의 메인프레임(300) 내에 디스플레이된다. 즉, 메인프레임(300) 내에 디스플레이되는 정면 이미지는 코너(e1)(e2)까지의 좌측벽(710')과 우측벽 및 그 사이의 천정과 바닥, 그리고 두 지점(W0)(W0') 사이의 정면 이미지로 구성된다. 여기서, 바람직하게 좌측벽(710'), 우측벽 및 그 사이의 천정과 바닥은 전술한 바와 같이 정면 서브프레임(a')(b')(c')(d')으로 나누어 처리되고, 나머지 (W0)(W0') 사이의 이미지는 미리 촬영된 레이어 이미지(LI1)를 삽입함으로써 구성될 수 있다.In this state, the front camera C1 photographs the front space including the left wall 710 'of the corridor 700 and the image is displayed in the mainframe 300 of FIG. 18A. That is, the front image displayed in the main frame 300 is the left wall 710 'and the right wall to the corners e1 and e2, and the ceiling and the floor therebetween, and between the two points W0 and W0'. Consists of a frontal image. Here, preferably, the left side wall 710 ', the right side wall, and the ceiling and the floor therebetween are divided into the front subframes a' (b ') (c') (d ') as described above, and the remainder is processed. An image between (W0) and (W0 ') can be constructed by inserting the previously photographed layer image LI1.

또한, 정면 카메라와의 중복 영역인 (710')부분을 제외한 나머지 좌측벽(710) 부분 역시 전술한 바와 같이 좌측면 서브프레임(L')으로 처리된다.결과적으로 지점(Po)에서의 서브프레임과 이미지의 구성은 도 18a와 같다.In addition, the remaining left wall 710 portion except for the portion 710 'overlapping with the front camera is also processed as the left side subframe L' as described above. As a result, the subframe at the point Po The configuration of the image is as shown in Fig. 18A.

관찰자가 지점(Po)에서 지점(P1)으로 전진한 상태의 평면도가 도 17b에 도시되어 있다. 여기서, 지점(P1)은 정면 카메라 또는 관찰자의 가로 화각 경계선이 정확하게 코너(e1)(e2)와 일치하게 되는 지점으로서 도 18b에 도시된 바와 같이 메인프레임(300) 내에는 지점(W3)(W4) 사이의 정면 레이어 이미지(LI1) 만이 확대되어 디스플레이되고 나머지 정면 서브프레임(a')(b')(c')(d')들은 메인프레임(300) 바깥으로 밀려나간 상태가 된다. 상기 정면 레이어 이미지(LI1)의 디스플레이되는 최대 가로 크기는 상기 지점(W3)(W4) 사이의 범위이며 따라서 정면 레이어 이미지(LI1)는 이 지점 사이의 이미지로 미리 촬영되어 저장되는 것이 바람직하다.A plan view of the observer advanced from point Po to point P1 is shown in FIG. 17B. Here, the point P1 is a point at which the horizontal angle of view boundary line of the front camera or observer is exactly coincident with the corners e1 (e2). As shown in FIG. 18B, the point P1 is a point W3 (W4) in the main frame 300. Only the front layer image LI1 is enlarged and displayed, and the remaining front subframes a ', b', c ', and d' are pushed out of the main frame 300. The maximum horizontal size displayed of the front layer image LI1 is in the range between the points W3 and W4, and thus the front layer image LI1 is preferably photographed and stored in advance as an image between these points.

위 도 18a 및 도 18b에서 만약 관찰자가 왼쪽으로 고개를 돌려 방향을 전환하면, 전술한 바와 마찬가지로 이미 바깥으로 밀려난 정면 서브프레임(a') 및/또는 좌측면 서브프레임(L')이 메인프레임(300) 내로 들어오면서 좌측 이미지가 디스플레이 될 것이다.18A and 18B above, if the observer turns his head to the left to change direction, the front subframe a 'and / or the left side subframe L' are already pushed out as described above. As you enter 300, the left image will be displayed.

카메라 및 관찰자가 도 17c의 지점(P2)에 도달할 때까지, 메인프레임(300) 내에 있는 레이어 서브프레임의 정면 레이어 이미지(LI1)는 점점 확대됨과 동시에 그 좌우측 경계선은 화살표 (D1)(D2)방향으로 점차 안쪽으로 좁아지게 되어 지점(W5)(W6)과 교차하게 된다. 또한, 이 지점에서는, 또 하나의 레이어 서브프레임이 필요하게 되는데, 그것은 정면 레이어 이미지(LI1)에 의해 커버되었던 (W3)(W4) 바깥쪽의 벽(815)(825)에 해당하는 레이어 이미지를 디스플레이하기 위해서이다. 즉, 상기 (W3)(W4)영역 바깥의 측벽(815)(825)은 정면 이미지에서는 불필요하나, 관찰자가 좌우측으로 고개를 돌려 방향전환을 할 경우에는 그 시야가 도 17c의 화살표 (D3)(D4) 방향으로 확장된다. 좌측벽의 예를 들 경우, 정면 카메라의 최대시야 경계 지점인 (W3)바깥의 측벽(815)를 별도로 촬영한 측면 레이어 이미지(LI2)가 마련된다. 이러한 레이어 이미지(LI2)가 삽입되는 레이어 서브프레임은 관찰자가 정면을 주시할 경우에는 나타나지 않고 좌측으로 고개를 돌릴 경우에만 나타나는 영역이므로 도 18c에서처럼, 메인프레임(300) 외부의 코너(e1)과 지점(W3) 사이에 삽입된다. 구체적으로, 관찰자가 정면 좌측 경계지점(W5)에서 좌측으로 방향전환을 할 경우 시야는 지점(W5)에서 지점(W3)로 확장되고 이때 레이어 이미지(LI1)의 영역(815')이 메인프레임(300) 내로 진입하며 디스플레이될 것이다. 여기에서 더욱 좌측으로 방향전환을 계속하게 되면, 시야는 지점(W3)를 지나 화살표(D3) 방향으로 계속 확장되므로 그 영역에 해당하는 레이어 이미지(LI2)가 메인프레임(300) 내에 디스플레이되기 시작한다. 만약, 계속 좌측으로 방향전환을 더 하게 되면 결국 서브프레임(a')(L')들이 메인프레임(300) 내에 디스플레이 될 것이다.Until the camera and observer reach point P2 in FIG. 17C, the front layer image LI1 of the layer subframe within the mainframe 300 is gradually enlarged while its left and right borders are indicated by arrows D1 and D2. It gradually narrows inward to cross the points W5 and W6. Also, at this point, another layer subframe is needed, which is the layer image corresponding to the outer walls 815 and 825 that were covered by the front layer image LI1 (W3) (W4). To display. That is, the sidewalls 815 and 825 outside the (W3) and (W4) regions are unnecessary in the front image, but when the viewer turns the head to the left and right, the field of view is indicated by the arrow D3 (Fig. 17C) ( D4) direction. In the case of the left side wall, the side layer image LI2 which separately photographed the side wall 815 outside (W3) which is the maximum view boundary point of a front camera is provided. Since the layer subframe into which the layer image LI2 is inserted is an area that does not appear when the viewer looks to the front but only turns to the left, as shown in FIG. 18C, the corner e1 and the point outside the main frame 300 are located. It is inserted between (W3). Specifically, when the observer turns from the front left boundary point W5 to the left, the field of view extends from the point W5 to the point W3, wherein the area 815 'of the layer image LI1 is the mainframe ( 300 will be entered and displayed. If the direction continues further to the left side, since the field of view continues to extend beyond the point W3 in the direction of the arrow D3, the layer image LI2 corresponding to the area starts to be displayed in the mainframe 300. . If the direction is further changed to the left, the subframes a 'and L' will be displayed in the main frame 300 eventually.

주의할 것은 상기 레이어 이미지(LI2)의 좌측 경계는 관찰자가 전진할수록 화살표(D3) 방향으로 더욱 확대된다는 점이다. 즉, 도 17d에 도시된 바와 같이, 측면 카메라가 전진하여 그 좌측 시야 경계선이 코너(e1)과 일치할 때, 관찰자의 좌측 시야 경계선은 벽(815)의 지점(W7)과 일치하게 된다. 따라서, 측면 레이어 이미지(LI2)는 이 영역까지 디스플레이되어야 하므로 측면 레이어 이미지(LI2)의 좌측 최대 경계는 지점(W7)이 된다.Note that the left boundary of the layer image LI2 is further enlarged in the direction of the arrow D3 as the viewer moves forward. That is, as shown in FIG. 17D, when the side camera advances and its left field of view line coincides with the corner e1, the observer's left field of view line coincides with the point W7 of the wall 815. Therefore, since the side layer image LI2 is to be displayed up to this area, the left maximum boundary of the side layer image LI2 becomes the point W7.

이것에 따른 서브프레임과 레이어 이미지의 구성은 도 18d에 도시되어 있는데, 도면에 의하면 관찰자가 좌측 방향 전환을 선택할 경우 지점(W3)까지의 정면 레이어 이미지(LI1)가 우측으로 밀려 들어오고, 이어서 측면 레이어 이미지(LI2)가 연속적으로 뒤이어 디스플레이될 것이다.The configuration of the subframe and the layer image according to this is shown in Fig. 18D. According to the drawing, when the observer selects the left turn, the front layer image LI1 to the point W3 is pushed to the right, and then the side The layer image LI2 will be displayed subsequently successively.

결과적으로, 상기 삽입되는 레이어 이미지(LI2)의 크기는 지점(P3)에서 최대이고, 도 17b에 나타난 지점(P1)에서 최소이다. 바람직하게 상기 지점에 따른 레이어 이미지의 크기는 미리 프로그램된다.As a result, the size of the inserted layer image LI2 is maximum at point P3 and minimum at point P1 shown in FIG. 17B. Preferably the size of the layer image according to the point is preprogrammed.

관찰자 또는 카메라가 더욱 전진하여 정면 시야 경계선이 코너(e3)(e4)와 일치할 경우, 복도(900)은 전술한 실시예에서와 동일한 서브프레임으로 표시될 수 있다. 만약 카메라 또는 관찰자가 도 17e에 도시된 지점(P4)에 위치할 때, 측벽(910)(920)과 그 사이의 천정 및 바닥은 각각 새로운 정면 서브프레임(a")(b")(c")(d")으로 구획되어 디스플레이될 수 있고, 나머지 정면벽(930)은 레이어 이미지(LI3)로 삽입될 수 있다.If the observer or the camera is further advanced so that the frontal view boundary lines coincide with the corners e3 and e4, the corridor 900 may be displayed in the same subframe as in the above embodiment. If the camera or observer is located at point P4 shown in Fig. 17E, the sidewalls 910 and 920 and the ceiling and floor therebetween are each a new front subframe (a ") (b") (c "). ("D") may be displayed and the remaining front wall 930 may be inserted into the layer image LI3.

본 발명에 따른 3차원 가상현실공간 구현방법은 쇼핑몰 등에 유용하게 활용될 수 있는데, 판매할 상품들을 별도의 객체로 설정하고 이를 본 발명에 따른 3차원 가상현실공간에 배치하면, 예를 들어 구매자가 원하는 상품을 드래그 앤 드롭(Drag Drop) 방식으로 장바구니에 담아서 상품을 구매할 수 있을 것이다. 이 뿐만이 아니라, 3차원 게임, 관광, 지리정보제공 등을 비롯한 다양한 분야에 응용될 수 있음은 물론이다.The three-dimensional virtual reality space implementation method according to the present invention can be usefully used for shopping malls, etc. If the goods to be sold are set as separate objects and placed in the three-dimensional virtual reality space according to the present invention, for example, You can purchase products by dragging and dropping items you want into the shopping cart. Not only this, of course, it can be applied to various fields such as 3D games, tourism, geographic information provision, and the like.

본 발명에 따른 3차원 가상현실공간은 프레임 이미지 자체의 광학적인 원근감과 각 서브프레임의 디지털적인 크기의 변화를 통한 원근감으로 표현된다. 종래에, 이미지의 축소와 확대를 통해 원근감을 표현하는 방식에서는 실제적인 원근감을 주기에 미흡할 뿐만 아니라 이미지 확대에 따른 해상도의 저하 문제가 초래되었다. 본 발명에 따르면, 각 프레임 이미지들은 그 자체로 광학적인 원근감을 가지고 있다. 또한, 축소와 확대에 따른 해상도의 저하를 막고 관찰자의 방향 전환에 따른 사실적인 이미지를 제공하기 위해 서브프레임의 동적인 변화가 이루어진다.The three-dimensional virtual reality space according to the present invention is expressed by the optical perspective of the frame image itself and the perspective through the change in the digital size of each subframe. Conventionally, in the method of expressing perspective by reducing and enlarging an image, not only the actual perspective is insufficient but also a problem of deterioration of resolution due to image enlargement has been caused. According to the invention, each frame image has its own optical perspective. In addition, dynamic changes of subframes are made to prevent the resolution from being reduced and enlarged and to provide a realistic image according to the viewer's redirection.

본 발명에 따른 3차원 가상현실공간은 그래픽 저작툴을 이용한 이미지의 생성이나 그 재합성이 아니라 실제 현실 공간을 촬영한 이미지 자체를 디스플레이시킴으로써 사실적인 공간감을 부여할 수 있는 장점이 있다.3D virtual reality space according to the present invention has the advantage that can give a realistic sense of space by displaying the image itself photographed the real space, not the generation or recombination of the image using a graphic authoring tool.

또한, 본 발명에 따른 3차원 가상현실공간의 이동은 각 서브프레임의 동적 변화를 통해 이루어지므로 서브프레임의 동적 변화에 따른 데이터만을 전송하거나 처리하면 되므로 대용량의 데이터를 전송하거나 처리하는 부담을 줄여준다.In addition, since the movement of the three-dimensional virtual reality space is made through the dynamic change of each subframe, only the data according to the dynamic change of the subframe needs to be transmitted or processed, thereby reducing the burden of transmitting or processing a large amount of data. .

나아가 , 본 발명은 실제 이미지를 바탕으로 서브프레임과 레이어 이미지들의 동적 변환만을 처리하면 되므로, 예를 들어, HTML과 자바스크립트와 같은 간단한 프로그램 툴만으로도 3차원 가상현실공간을 충분히 구현할 수 있으므로 콘텐츠 파일의 제작이 상대적으로 간편하고 사용자도 별도의 브라우저를 설치하거나 플러그 인 할 필요가 없다.Furthermore, since the present invention only needs to process dynamic conversion of subframe and layer images based on real images, for example, simple program tools such as HTML and JavaScript can realize 3D virtual reality space sufficiently. It is relatively easy to build and users do not need to install or plug in a separate browser.

Claims (22)

(a) 원근감을 부여하는 방향으로 카메라를 이동시키면서 실제 공간을 연속적이면서도 간헐적으로 촬영하는 단계;(a) photographing the real space continuously and intermittently while moving the camera in a direction giving perspective; (b) 상기 촬영된 실제 공간 이미지들이 연속적인 이미지를 구성하도록 각각 그 일부를 절단하여 편집하는 단계;(b) cutting and editing a portion of each of the photographed real spatial images to form a continuous image; (c) 메인프레임의 내부 및 외부에 상호 소정의 축소율을 가지도록 상기 편집된 이미지들에 대응하는 복수의 연속적인 서브프레임들을 생성시키는 단계;(c) generating a plurality of consecutive subframes corresponding to the edited images so as to have a predetermined reduction ratio inside and outside the mainframe; (d) 상기 서브프레임들에 대응하는 것으로서 상기 단계(b)에서 편집된 이미지들을 상기 소정의 축소율에 따라 상기 서브프레임들에 각각 삽입하여 상호 원근감을 갖는 연속적인 이미지를 형성시키는 단계; 및(d) inserting the images edited in the step (b) into the subframes according to the predetermined reduction ratio as corresponding to the subframes to form a continuous image having a mutual perspective; And (e) 상기 서브프레임들을 이동시키는 것과 동시에 상기 서브프레임 및 대응 이미지들의 크기에 동적변화를 부여하는 단계;를 포함하는 것을 특징으로 하는 실제 공간 이미지를 기반으로 한 3차원 가상현실공간 구현방법.(e) moving the subframes and simultaneously applying dynamic changes to the sizes of the subframes and the corresponding images; and a method of implementing a 3D virtual reality space based on a real space image. 제1항에 있어서, 상기 단계(a)에서, 실제 공간은 정면을 촬영하는 정면카메라와 측면을 촬영하는 측면카메라에 의해 촬영되는 것을 특징으로 하는 방법.The method of claim 1, wherein in the step (a), the actual space is photographed by the front camera photographing the front and the side camera photographing the side. 제2항에 있어서, 상기 서브프레임들은,The method of claim 2, wherein the subframes, 상기 메인프레임 내부에 위치하며 상기 정면카메라에 의해 촬영된 이미지들이 대응되는 정면 서브프레임들과;Front subframes located inside the main frame and corresponding to images captured by the front camera; 상기 메인프레임 바깥에 위치하며 상기 측면카메라에 의해 촬영된 이미지들이 대응되는 측면 서브프레임들을 포함하는 것을 특징으로 하는 방법.And side lateral subframes positioned outside the mainframe and corresponding to images captured by the lateral camera. 제3항에 있어서, 상기 정면 서브프레임들은 상기 메인프레임의 좌측단, 우측단, 상단 및 하단으로부터 상호 소정 축소율의 관계를 가지고 종방향 및 횡방향으로 배열된 복수개의 막대모양의 프레임들로 구성되고,According to claim 3, wherein the front subframes are composed of a plurality of rod-shaped frames arranged in the longitudinal and transverse direction with a relationship of a predetermined reduction ratio from the left end, right end, top and bottom of the main frame and , 상기 측면 서브프레임들은 상호 소정 축소율의 관계를 가지고 상기 메인프레임에 대해 종방향으로 배열된 복수개의 막대모양의 프레임들로 구성되는 것을 특징으로 하는 방법.And said lateral subframes comprise a plurality of rod-shaped frames arranged longitudinally with respect to said mainframe with a mutually reduced reduction ratio. 제4항에 있어서, 상기 촬영된 실제 공간의 정면이미지들 각각은 그 좌측단, 우측단, 상단 및 하단이 종방향 및 횡방향으로 일정한 크기의 막대모양으로 절단되어 상기 정면 서브프레임들에 상기 소정 축소율에 따라 축소되어 대응되고,5. The front subframes of claim 4, wherein each of the front images of the photographed real space is cut in a bar shape having a predetermined size in a longitudinal direction and a transverse direction of a left end, a right end, a top end, and a bottom end thereof. Corresponding to the reduction ratio 상기 촬영된 실제 공간의 측면이미지들 각각은 그 좌측단이 종방향으로 일정한 크기의 막대모양으로 절단되어 상기 측면 서브프레임들에 상기 소정 축소율에 따라 축소되어 대응되는 것을 특징으로 하는 방법.Each of the side images of the photographed real space has a left end thereof cut into a bar shape having a constant size in the longitudinal direction and is reduced to correspond to the side subframes according to the predetermined reduction ratio. 제5항에 있어서, 상기 단계(e)에서,The method of claim 5, wherein in step (e), 상기 정면 서브프레임들 중에서 하위 서브프레임들이 상위 서브프레임의 위치로 이동하면서 그 상위 서브프레임의 크기로 확대되는 것을 특징으로 하는 방법.The lower subframes of the front subframes are enlarged to the size of the upper subframe while moving to the position of the upper subframe. 제5항에 있어서, 상기 단계(e)에서,The method of claim 5, wherein in step (e), 상기 정면 서브프레임 중 어느 일측 서브프레임의 일부가 상기 메인프레임 바깥으로 밀려나고, 그에 따라 나머지 정면 서브프레임들이 수평방향으로 위치이동하는 동시에, 상기 정면 서브프레임의 타측 서브프레임에 이어서 측면 서브프레임이 상기 메인프레임 내부로 진입하는 것을 특징으로 하는 방법.A portion of one of the front subframes is pushed out of the main frame, and the remaining front subframes are moved in the horizontal direction, and the side subframe is followed by the other subframe of the front subframe. Method of entering into the mainframe. (a) 원근감을 부여하는 방향으로 카메라를 이동시키면서 실제 공간을 연속적이면서도 간헐적으로 촬영하여 소스이미지들을 생성하는 단계;(a) generating source images by continuously and intermittently photographing the actual space while moving the camera in a direction giving perspective; (b) 상기 소스이미지들 각각의 일부를 절단하여 상호 연속적인 이미지를 구성하는 프레임 이미지들을 생성하는 단계;(b) cutting part of each of the source images to generate frame images constituting a mutually continuous image; (c) 상기 프레임 이미지들에 객체성을 부여하여 상호 이미지가 연속적이 되도록 소정의 축소율을 가지는 복수의 서브프레임들을 생성시키는 단계; 및(c) generating a plurality of subframes having a predetermined reduction ratio so that object images are given to the frame images so that mutual images are continuous; And (d) 상기 서브프레임들을 이동시킴과 동시에 그 서브프레임들과 대응 이미지들의 크기를 차상위 서브프레임 또는 차하위 서브프레임 크기로 동적변화를 부여하는 단계;를 포함하는 것을 특징으로 하는 실제 공간 이미지를 기반으로 한 3차원 가상현실공간 구현방법.(d) moving the subframes and simultaneously applying a dynamic change of the subframes and the corresponding images to the next higher subframe or the next lower subframe size; and based on the actual spatial image. 3D virtual reality implementation method. 제8항에 있어서, 상기 단계(a)에서, 실제 공간은 정면을 촬영하는 정면카메라와 측면을 촬영하는 측면카메라에 의해 촬영되는 것을 특징으로 하는 방법.The method of claim 8, wherein in the step (a), the actual space is photographed by the front camera photographing the front side and the side camera photographing the side surface. 제9항에 있어서, 상기 서브프레임들은,The method of claim 9, wherein the subframes, 상기 메인프레임 내부에 위치하며 상기 정면카메라에 의해 촬영된 이미지들이 대응되는 정면 서브프레임들과;Front subframes located inside the main frame and corresponding to images captured by the front camera; 상기 메인프레임 바깥에 위치하며 상기 측면카메라에 의해 촬영된 이미지들이 대응되는 측면 서브프레임들을 포함하는 것을 특징으로 하는 방법.And side lateral subframes positioned outside the mainframe and corresponding to images captured by the lateral camera. 제10항에 있어서, 상기 정면 서브프레임들은 상기 메인프레임의 좌측단, 우측단, 상단 및 하단으로부터 상호 소정 축소율의 관계를 가지고 종방향 및 횡방향으로 배열된 복수개의 막대모양의 프레임들로 구성되고,11. The method of claim 10, wherein the front subframes are composed of a plurality of rod-shaped frames arranged in the longitudinal and transverse direction with a relationship of a predetermined reduction ratio from the left end, right end, top and bottom of the main frame and , 상기 측면 서브프레임들은 상호 소정 축소율의 관계를 가지고 상기 메인프레임에 대해 종방향으로 배열된 복수개의 막대모양의 프레임들로 구성되는 것을 특징으로 하는 방법.And said lateral subframes comprise a plurality of rod-shaped frames arranged longitudinally with respect to said mainframe with a mutually reduced reduction ratio. 제11항에 있어서, 상기 촬영된 실제 공간의 정면이미지들 각각은 그 좌측단, 우측단, 상단 및 하단이 종방향 및 횡방향으로 일정한 크기의 막대모양으로 절단되어 상기 정면 서브프레임들에 상기 소정 축소율에 따라 축소되어 대응되고,12. The method according to claim 11, wherein each of the front images of the photographed real space has a left end, a right end, an upper end, and a lower end cut in a bar shape having a predetermined size in a longitudinal direction and a transverse direction. Corresponding to the reduction ratio 상기 촬영된 실제 공간의 측면이미지들 각각은 그 좌측단이 종방향으로 일정한 크기의 막대모양으로 절단되어 상기 측면 서브프레임들에 상기 소정 축소율에따라 축소되어 대응되는 것을 특징으로 하는 방법.Each of the side images of the photographed real space has a left end thereof cut into a bar shape having a constant size in the longitudinal direction and is reduced to correspond to the side subframes according to the predetermined reduction ratio. (a) 원근감을 부여하는 방향으로 카메라를 이동시키면서 실제 공간을 연속적이면서도 간헐적으로 촬영하여 소스이미지들을 생성하는 단계;(a) generating source images by continuously and intermittently photographing the actual space while moving the camera in a direction giving perspective; (b) 상기 실제 공간에서 공간 원근감을 무시할 수 있는 영역을 촬영하여 레이어 이미지들을 생성하는 단계;(b) generating layer images by photographing an area in which the spatial perspective can be ignored in the real space; (c) 상기 소스이미지들 각각의 일부를 절단하여 상호 연속적인 이미지를 구성하는 프레임 이미지들을 생성하는 단계;(c) cutting part of each of the source images to generate frame images constituting a mutually continuous image; (d) 메인프레임의 내외부에 상호 소정의 축소율을 가지도록 상기 프레임 이미지들에 대응하는 복수의 연속적인 서브프레임들과 상기 레이어 이미지들에 대응하는 레이어 서브프레임들을 생성시키는 단계;(d) generating a plurality of consecutive subframes corresponding to the frame images and layer subframes corresponding to the layer images so as to have a predetermined reduction ratio in and out of the main frame; (e) 상기 프레임 이미지들을 상기 소정의 축소율에 따라 상기 서브프레임들에 삽입하고, 상기 레이어 이미지들을 상기 레이어 서브프레임들에 각각 삽입하여 상호 원근감을 갖는 연속적인 이미지를 형성하도록 하는 단계; 및(e) inserting the frame images into the subframes according to the predetermined reduction ratio, and inserting the layer images into the layer subframes, respectively, to form a continuous image having a mutual perspective; And (f) 상기 서브프레임들을 이동시켜 그 서브프레임들과 프레임 이미지들의 크기를 차상위 서브프레임 또는 차하위 서브프레임 크기가 되도록 하는 동시에, 상기 레이어 서브프레임들을 확대/축소 또는 드러남/숨김으로써 상기 레이어 이미지들이 확대/축소되거나 그 이미지의 일부가 드러나도록/숨겨지도록 동적변화를 부여하는 단계;를 포함하는 것을 특징으로 하는 실제 공간 이미지를 기반으로 한 3차원 가상현실공간 구현방법.(f) moving the subframes so that the size of the subframes and the frame images is the size of the next higher subframe or the next lower subframe, and the layer images are enlarged / reduced or hidden / hidden. And giving a dynamic change to enlarge / reduce or to reveal / hide a part of the image. 3D virtual reality space implementation method based on a real space image comprising a. 제13항에 있어서, 상기 서브프레임들은,The method of claim 13, wherein the subframes, 상기 메인프레임 내부에 위치하며 상기 정면카메라에 의해 촬영된 이미지들이 대응되는 정면 서브프레임들과;Front subframes located inside the main frame and corresponding to images captured by the front camera; 상기 메인프레임 바깥에 위치하며 상기 측면카메라에 의해 촬영된 이미지들이 대응되는 측면 서브프레임들을 포함하는 것을 특징으로 하는 방법.And side lateral subframes positioned outside the mainframe and corresponding to images captured by the lateral camera. 제14항에 있어서, 상기 정면 서브프레임들은 상기 메인프레임의 좌측단, 우측단, 상단 및 하단으로부터 상호 소정 축소율의 관계를 가지고 종방향 및 횡방향으로 배열된 복수개의 막대모양의 프레임들로 구성되고,15. The apparatus of claim 14, wherein the front subframes comprise a plurality of rod-shaped frames arranged in a longitudinal direction and a transverse direction with a relation of a predetermined reduction ratio from a left end, a right end, an upper end, and a lower end of the main frame. , 상기 측면 서브프레임들은 상호 소정 축소율의 관계를 가지고 상기 메인프레임에 대해 종방향으로 배열된 복수개의 막대모양의 프레임들로 구성되는 것을 특징으로 하는 방법.And said lateral subframes comprise a plurality of rod-shaped frames arranged longitudinally with respect to said mainframe with a mutually reduced reduction ratio. 제15항에 있어서, 상기 단계(f)에서,The method of claim 15, wherein in step (f), 상기 정면 서브프레임들 중에서 하위 서브프레임들이 상위 서브프레임의 위치로 이동하면서 그 상위 서브프레임의 크기로 확대되고,Among the front subframes, the lower subframes are expanded to the size of the upper subframe while moving to the position of the upper subframe. 상기 레이어 서브프레임 및 레이어 이미지가 확대되는 것을 특징으로 하는 방법.And the layer subframe and the layer image are enlarged. 제15항에 있어서, 상기 단계(f)에서,The method of claim 15, wherein in step (f), 상기 정면 서브프레임들 중에서 하위 서브프레임들이 상위 서브프레임의 위치로 이동하면서 그 상위 서브프레임의 크기로 확대되고,Among the front subframes, the lower subframes are expanded to the size of the upper subframe while moving to the position of the upper subframe. 제1 레이어 서브프레임 및 그 레이어 이미지가 확대되는 동시에,The first layer subframe and its layer image are enlarged, 제2 레이어 서브프레임 및 그 레이어 이미지가 적어도 상기 서브프레임들 및/또는 제1 레이어 서브프레임 사이로 나타나는 것을 특징으로 하는 방법.And a second layer subframe and its layer image appear between at least the subframes and / or the first layer subframe. 제15항에 있어서, 상기 단계(f)에서,The method of claim 15, wherein in step (f), 상기 정면 서브프레임 중 어느 일측 서브프레임의 일부가 상기 메인프레임 바깥으로 밀려나고, 그에 따라 나머지 정면 서브프레임들 및 제1 레이어 서브프레임이 수평방향으로 위치이동하는 동시에, 제2 레이어 서브프레임 및 그 레이어 이미지가 메인프레임 내부로 진입하는 것을 특징으로 하는 방법.A portion of any one of the front subframes is pushed out of the main frame, whereby the remaining front subframes and the first layer subframe are moved horizontally, and the second layer subframe and its layer Characterized in that the image enters into the mainframe. 실제 공간 이미지를 기반으로 3차원 가상현실공간을 구현하는 장치로서,As a device for implementing a 3D virtual reality space based on a real space image, 이벤트 신호를 입력하는 입력장치;An input device for inputting an event signal; 화상을 표시하는 표시장치;A display device for displaying an image; 실제 공간을 연속적이면서도 간헐적으로 촬영한 소스이미지를 연속적인 이미지를 이루도록 절단한 뒤 상호 소정의 축소율을 가진 채 복수의 서브프레임들에 삽입시키도록 프로그램된 3차원 가상현실공간 파일을 해석하고, 상기 입력장치를 통해 입력되는 사용자의 이벤트 신호를 해석하여 상기 서브프레임과 그 이미지의 생성 및 동적변환을 지시하는 해석부; 및Interpret the three-dimensional virtual reality space file programmed to cut the source image taken from the real space continuously and intermittently to form a continuous image, and then insert them into a plurality of subframes with a predetermined reduction ratio. An analysis unit for interpreting an event signal of a user input through a device and instructing generation and dynamic conversion of the subframe and its image; And 상기 해석부의 지시에 따라 서브프레임을 생성하고 그 서브프레임에 대응하는 이미지를 제공하여 상기 표시장치에 디스플레이하는 동시에, 상기 이벤트 신호 해석 결과 신호에 따라 상기 서브프레임들을 이동시켜 그 서브프레임들과 이미지들의 크기를 차상위 서브프레임 또는 차하위 서브프레임 크기가 되도록 동적변환을 부여하는 실행부를 포함하는 것을 특징으로 하는 실제 공간 이미지를 기반으로 한 3차원 가상현실공간 구현장치.A subframe is generated according to the instruction of the analysis unit, an image corresponding to the subframe is provided and displayed on the display device, and the subframes are moved according to the event signal analysis result signal to transfer the subframes and images. An apparatus for implementing a three-dimensional virtual reality space based on a real space image, comprising: an execution unit for providing a dynamic transformation so that the size becomes a next higher subframe or a next lower subframe. 제19항에 있어서, 상기 해석부는,The method of claim 19, wherein the analysis unit, HTML계열의 언어로 프로그램된 3차원 가상공간 파일을 해석하는 HTML해석부; 및An HTML interpreter for interpreting a 3D virtual space file programmed in an HTML-based language; And 상기 HTML문서 내에 첨가된 자바스크립트를 실행하기 위해 이를 해석하는 스크립트 해석부를 포함하는 것을 특징으로 하는 장치.Apparatus comprising a script interpreter for interpreting to execute the JavaScript added in the HTML document. 제19항에 있어서, 상기 실행부는,The method of claim 19, wherein the execution unit, 상기 디스플레이상의 메인프레임 내에 서브프레임을 생성하고 상기 해석부로부터의 이벤트 결과 신호에 따라 서브프레임의 동적 변환을 수행하는 프레임 실행부;A frame execution unit generating a subframe in the mainframe on the display and performing dynamic conversion of the subframe according to an event result signal from the analyzer; 상기 서브프레임에 대해 이미지를 제공하고 상기 서브프레임의 동적 변환에따라 그에 대응하는 이미지를 변환시키는 프레임 이미지 관리부; 및A frame image manager which provides an image for the subframe and converts an image corresponding to the dynamic conversion of the subframe; And 상기 서브프레임 내에 레이어 이미지를 삽입하고 서브프레임 변환에 따른 레이어 이미지의 변환을 제공하는 레이어 이미지 관리부;를 포함하는 것을 특징으로 하는 장치.And a layer image manager inserting the layer image into the subframe and providing a transformation of the layer image according to the subframe transformation. 실제 공간을 연속적이면서도 간헐적으로 촬영한 소스이미지를 연속적인 이미지를 이루도록 절단하여 상호 소정의 축소율을 가지도록 복수의 서브프레임에 삽입시키도록 프로그램된 3차원 가상현실공간 파일을 이용한 3차원 가상현실공간 구현방법으로서,Realization of 3D virtual reality space using 3D virtual reality space files programmed to cut the source images taken from the real space continuously and intermittently to form a continuous image and insert them into a plurality of subframes having a predetermined reduction ratio. As a method, 상기 프로그램된 3차원 가상현실공간 파일을 해석하여 표시장치에 서브프레임을 생성하고 그 서브프레임에 대응하는 이미지를 제공하여 디스플레이하는 단계;Analyzing the programmed three-dimensional virtual reality space file to generate a subframe on a display device and to provide an image corresponding to the subframe and to display the subframe; 입력장치를 통해 전진, 후진, 좌로 전환, 우로 전환을 포함하는 이벤트 중에서 어느 하나를 입력하는 단계; 및Inputting any one of an event including forward, backward, leftward switching, and rightward switching through an input device; And 상기 이벤트 입력에 따라 상기 서브프레임들을 이동시켜 그 서브프레임들과 이미지들의 크기를 차상위 서브프레임 또는 차하위 서브프레임 크기가 되도록 동적변환을 부여하는 단계;를 포함하는 것을 특징으로 하는 3차원 가상현실공간 구현방법.Moving the subframes according to the event input and giving a dynamic transformation so that the sizes of the subframes and the images become the next higher subframe or the next lower subframe size. Implementation method.
KR10-2002-0008817A 2002-02-19 2002-02-19 An apparatus and method for displaying three-dimensional virtual space based on real images KR100383015B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0008817A KR100383015B1 (en) 2002-02-19 2002-02-19 An apparatus and method for displaying three-dimensional virtual space based on real images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0008817A KR100383015B1 (en) 2002-02-19 2002-02-19 An apparatus and method for displaying three-dimensional virtual space based on real images

Publications (2)

Publication Number Publication Date
KR20020024274A KR20020024274A (en) 2002-03-29
KR100383015B1 true KR100383015B1 (en) 2003-05-09

Family

ID=19719328

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0008817A KR100383015B1 (en) 2002-02-19 2002-02-19 An apparatus and method for displaying three-dimensional virtual space based on real images

Country Status (1)

Country Link
KR (1) KR100383015B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102269724B1 (en) * 2020-12-22 2021-06-28 주식회사 이노벡스 Stereoscopic display system for moving train

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863416A (en) * 1994-08-19 1996-03-08 Sony Corp Cyberspace system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863416A (en) * 1994-08-19 1996-03-08 Sony Corp Cyberspace system

Also Published As

Publication number Publication date
KR20020024274A (en) 2002-03-29

Similar Documents

Publication Publication Date Title
US9396578B2 (en) Method and system for displaying visual content in a virtual three-dimensional space
US8705892B2 (en) Generating three-dimensional virtual tours from two-dimensional images
JP2023036602A (en) Augmented and virtual reality
EP3471053B1 (en) Rendering, viewing and annotating panoramic images, and applications thereof
Dorsey et al. The mental canvas: A tool for conceptual architectural design and analysis
KR20070086037A (en) Method for inter-scene transitions
WO2013184612A2 (en) Level of detail transitions for geometric objects in a graphics application
EP2788974B1 (en) Texture fading for smooth level of detail transitions in a graphics application
CN112189220A (en) Soft occlusion for computer graphics rendering
US20110242271A1 (en) Synthesizing Panoramic Three-Dimensional Images
Pierdicca et al. 3D visualization tools to explore ancient architectures in South America
JP6089145B2 (en) CAMERA WORK GENERATION METHOD, CAMERA WORK GENERATION DEVICE, AND CAMERA WORK GENERATION PROGRAM
Batty Virtual reality in geographic information systems
JP2002140731A (en) Picture processor, picture processing system and recording medium
CN116243831B (en) Virtual cloud exhibition hall interaction method and system
KR100383015B1 (en) An apparatus and method for displaying three-dimensional virtual space based on real images
Laycock et al. Exploring cultural heritage sites through space and time
JP2004295859A (en) Device, method and program for generating stereoscopic image, and computer-readable recording medium with stereoscopic image generating program stored thereon
Roberts et al. 3d visualisations should not be displayed alone-encouraging a need for multivocality in visualisation
Kadobayashi et al. Seamless Guidance by Personal Agent in Virtual Space Based on User Interaction in Real World.
Trapp Interactive rendering techniques for focus+ context visualization of 3d geovirtual environments
CN111259567A (en) Layout generating method and device and storage medium
Tobita Double-volante: double cursor interactions to move obstacles for browsing and navigation
Oh et al. Comparative Navigation System for Collaborative Project
Oh et al. Comparative navigation system for collaborative architectural design

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee