KR102314787B1 - Method and apparatus for providing virtual room - Google Patents

Method and apparatus for providing virtual room Download PDF

Info

Publication number
KR102314787B1
KR102314787B1 KR1020170143515A KR20170143515A KR102314787B1 KR 102314787 B1 KR102314787 B1 KR 102314787B1 KR 1020170143515 A KR1020170143515 A KR 1020170143515A KR 20170143515 A KR20170143515 A KR 20170143515A KR 102314787 B1 KR102314787 B1 KR 102314787B1
Authority
KR
South Korea
Prior art keywords
virtual space
image
space
real space
real
Prior art date
Application number
KR1020170143515A
Other languages
Korean (ko)
Other versions
KR20190048506A (en
Inventor
최지윤
임국찬
신승호
전진수
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020170143515A priority Critical patent/KR102314787B1/en
Publication of KR20190048506A publication Critical patent/KR20190048506A/en
Priority to KR1020210119820A priority patent/KR102359230B1/en
Application granted granted Critical
Publication of KR102314787B1 publication Critical patent/KR102314787B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Abstract

개시된 가상 공간 제공 장치가 수행하는 가상 공간 제공 방법은, 기 정의된 복수개의 가상 공간 모델 중에서, 현실 공간에 대한 영상에 대응하는 어느 하나의 가상 공간 모델을 선택하는 단계와, 현실 공간에 대한 영상의 일부 영역에서 추출된 텍스처를 기초로, 선택된 가상 공간 모델에게 속성을 부여하여 가상 공간을 생성하는 단계와, 사용자 인터페이스를 통한 인터랙션에 따라, 기 정의된 객체 데이터베이스를 이용하여 가상 공간 내에 하나 이상의 객체를 배치하는 단계를 포함한다.The virtual space providing method performed by the disclosed virtual space providing apparatus includes the steps of selecting any one virtual space model corresponding to an image of a real space from among a plurality of predefined virtual space models; Creating a virtual space by assigning properties to the selected virtual space model based on the texture extracted from a partial region, and generating one or more objects in the virtual space using a predefined object database according to interaction through the user interface including placing.

Description

가상 공간 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING VIRTUAL ROOM}Method and device for providing virtual space {METHOD AND APPARATUS FOR PROVIDING VIRTUAL ROOM}

본 발명은 가상 공간 제공 방법 및 장치에 관한 것으로, 더욱 상세하게는 현실 공간에 대한 영상에 대응하는 가상 공간을 제공하는 가상 공간 제공 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for providing a virtual space, and more particularly, to a method and apparatus for providing a virtual space for providing a virtual space corresponding to an image of a real space.

주지하고 있는 바와 같이, 가상 현실은 어떤 특정한 환경이나 상황을 컴퓨팅 연산을 통해 만들어서, 그것을 사용하는 사람이 마치 실제 주변 상황이나 환경과 상호작용을 하고 있는 것처럼 느끼는 착각을 일으키게 한다. 이러한 가상 현실은 여러 가지의 영상이나 컴퓨터 그래픽을 이용하여 가상 공간을 표시하고, 사용자의 동작에 따라 가상 공간을 변화시켜서 사용자가 가상 공간 내에 있는 것처럼 느끼게 할 수 있다.As is well known, virtual reality creates a specific environment or situation through computing operations, creating the illusion that a person using it is interacting with a real surrounding situation or environment. Such virtual reality may display a virtual space using various images or computer graphics, and change the virtual space according to a user's motion so that the user feels as if he or she is in the virtual space.

한편, 가상 현실 기술 분야에서는 가상 현실 화면에 대한 현실감을 향상시키기 위한 노력이 지속되고 있는데, 사용자의 요구 또는 필요에 따라 현실 공간에 대응하는 가상 공간을 제공할 때에는 가상 현실 화면을 통해 제공되는 가상 공간이 현실 공간과 얼마만큼 유사한가에 따라 가상 현실 화면에 대한 현실감이 변화된다.On the other hand, in the field of virtual reality technology, efforts are being made to improve the sense of reality on the virtual reality screen. The sense of reality on the virtual reality screen changes depending on how similar it is to this real space.

종래 기술에 따르면, 현실 공간에 대한 영상을 분석하여 영상 내에 존재하는 객체들을 모두 검출하고, 검출된 객체들에 대응하는 3차원 가상 모델을 생성하며, 생성된 3차원 가상 모델을 포함하는 가상 공간을 생성하여 가상 현실 화면을 제공하였다.According to the prior art, an image of a real space is analyzed to detect all objects existing in the image, a 3D virtual model corresponding to the detected objects is generated, and a virtual space including the generated 3D virtual model is generated. created to provide a virtual reality screen.

그러나, 종래 기술에 의하면, 현실 공간에 대한 영상 내에 존재하는 객체들이 정확히 검출되지 않을 경우에는 가상 공간의 현실 공간에 대한 유사성이 떨어져서 가상 현실 화면에 대한 현실감이 현저히 낮아진다. 또, 이처럼 현실감이 낮은 가상 공간이 제공되면서도 현실 공간 내에 존재하는 객체들을 검출하기 위해 많은 연산이 필요하기 때문에, 모바일 기기 등과 같이 하드웨어적인 제약으로 인해 컴퓨팅 연산능력이 제한되는 경우에는 실시간 처리를 통해 가상 공간을 제공할 수 없는 문제점이 있었다.However, according to the prior art, when the objects existing in the image of the real space are not accurately detected, the similarity of the virtual space to the real space is lowered, so that the sense of reality on the virtual reality screen is significantly lowered. In addition, although a virtual space with a low sense of reality is provided, many calculations are required to detect objects existing in the real space. There was a problem that the space could not be provided.

대한민국 공개특허공보 제10-2016-0125439호, 공개일자 2016년 10월 31일.Republic of Korea Patent Publication No. 10-2016-0125439, publication date October 31, 2016.

본 발명의 실시예에 의하면, 기 정의된 복수개의 가상 공간 모델 중에서 현실 공간에 대한 영상에 대응하는 가상 공간 모델을 선택하여 가상 공간을 제공함으로써, 적은 량의 컴퓨팅 연산량을 요구하기에, 컴퓨팅 연산능력이 제한되는 경우에도 실시간 처리가 가능하도록 하고, 가상 공간을 포함하는 가상 현실 화면에 대한 현실감은 항상 기초 수준 이상을 유지하도록 한다.According to an embodiment of the present invention, by providing a virtual space by selecting a virtual space model corresponding to an image of a real space from among a plurality of predefined virtual space models, a small amount of computing power is required, so the computing power Even when this is limited, real-time processing is enabled, and the sense of reality for the virtual reality screen including the virtual space is always maintained above the basic level.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.

본 발명의 일 관점에 따라 가상 공간 제공 장치가 수행하는 가상 공간 제공 방법은, 기 정의된 복수개의 가상 공간 모델 중에서, 현실 공간에 대한 영상에 대응하는 어느 하나의 가상 공간 모델을 선택하는 단계와, 상기 현실 공간에 대한 영상의 일부 영역에서 추출된 텍스처(texture)를 기초로, 상기 선택된 가상 공간 모델에게 속성을 부여하여 가상 공간을 생성하는 단계와, 사용자 인터페이스를 통한 인터랙션(interaction)에 따라, 기 정의된 객체 데이터베이스를 이용하여 상기 가상 공간 내에 하나 이상의 객체를 배치하는 단계를 포함한다.According to an aspect of the present invention, a method for providing a virtual space performed by an apparatus for providing a virtual space includes selecting any one virtual space model corresponding to an image of a real space from among a plurality of predefined virtual space models; creating a virtual space by assigning attributes to the selected virtual space model based on a texture extracted from a partial region of the image for the real space; and placing one or more objects in the virtual space using a defined object database.

본 발명의 다른 관점에 따른 가상 공간 제공 장치는, 현실 공간에 대한 영상을 획득하는 영상 획득부와, 인터랙션을 위해 사용자 인터페이스를 제공하는 입력부와, 복수개의 가상 공간 모델 및 객체 데이터베이스가 저장되는 저장부와, 상기 현실 공간에 대한 영상에 대응하는 가공 공간을 출력하는 출력부와, 제어부를 포함하며, 상기 제어부는, 상기 복수개의 가상 공간 모델 중에서, 상기 현실 공간에 대한 영상에 대응하는 어느 하나의 가상 공간 모델을 선택하고, 상기 현실 공간에 대한 영상의 일부 영역에서 추출된 텍스처를 기초로, 상기 선택된 가상 공간 모델에게 속성을 부여하여 가상 공간을 생성하며, 상기 사용자 인터페이스를 통한 인터랙션에 따라, 상기 객체 데이터베이스를 이용하여 상기 가상 공간 내에 하나 이상의 객체를 배치한다.An apparatus for providing a virtual space according to another aspect of the present invention includes an image acquisition unit for acquiring an image of a real space, an input unit for providing a user interface for interaction, and a storage unit for storing a plurality of virtual space models and object databases and an output unit for outputting a processing space corresponding to the image of the real space, and a controller, wherein the controller includes any one virtual space corresponding to the image of the real space from among the plurality of virtual space models. A space model is selected, a virtual space is created by assigning properties to the selected virtual space model based on a texture extracted from a partial region of an image for the real space, and according to an interaction through the user interface, the object One or more objects are placed in the virtual space using a database.

본 발명의 실시예에 의하면, 기 정의된 복수개의 가상 공간 모델 중에서 현실 공간에 대한 영상에 대응하는 가상 공간 모델을 선택하여 가상 공간을 제공함으로써, 적은 량의 컴퓨팅 연산량을 요구하기에, 컴퓨팅 연산능력이 제한되는 경우에도 실시간 처리가 가능하도록 하고, 가상 공간을 포함하는 가상 현실 화면에 대한 현실감은 항상 기초 수준 이상을 유지하도록 한다.According to an embodiment of the present invention, by providing a virtual space by selecting a virtual space model corresponding to an image of a real space from among a plurality of predefined virtual space models, a small amount of computing power is required, so the computing power Even when this is limited, real-time processing is enabled, and the sense of reality for the virtual reality screen including the virtual space is always maintained above the basic level.

아울러, 가상 공간을 위한 현실 공간의 영상에서 직선 성분을 추출한 결과를 기초로 구조적 특징을 획득하기 때문에, 현실 공간의 영상을 획득할 때에 현실 공간이 말끔히 정리되지 않은 상태라고 할지라도 무방하다. 이는 개인에 의해 관리되는 사적 공간뿐만 아니라 개인이 관여할 수 없는 다양한 공간까지 투영시켜 가상 공간을 생성할 수 있도록 하는 효과가 있다.In addition, since the structural features are obtained based on the result of extracting the linear component from the image of the real space for the virtual space, it is okay even if the state of the real space is not neatly arranged when the image of the real space is acquired. This has the effect of creating a virtual space by projecting not only the private space managed by the individual but also various spaces that the individual cannot participate in.

도 1은 본 발명의 일 실시예에 따른 가상 공간 제공 장치의 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 가상 공간 제공 장치가 수행하는 가상 공간 제공 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 가상 공간 제공 장치가 수행하는 가상 공간 제공 방법에서 가상 공간 모델을 선택하는 과정을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 가상 공간 제공 장치가 수행하는 가상 공간 제공 방법에서 현실 공간의 구조적 특징을 추출하는 과정을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따라 가상 공간 제공 장치가 현실 공간에서 직선 성분을 추출하는 과정을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시예에 따라 가상 공간 제공 장치가 가상 공간 모델에게 속성을 부여해 가상 공간을 생성하는 과정을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시예에 따라 가상 공간 제공 장치가 가상 공간 내에 객체를 배치하는 과정을 설명하기 위한 예시도이다.
1 is a block diagram of an apparatus for providing a virtual space according to an embodiment of the present invention.
2 is a flowchart illustrating a method for providing a virtual space performed by an apparatus for providing a virtual space according to an embodiment of the present invention.
3 is a flowchart illustrating a process of selecting a virtual space model in a method for providing a virtual space performed by an apparatus for providing a virtual space according to an embodiment of the present invention.
4 is a flowchart illustrating a process of extracting structural features of a real space in a method for providing a virtual space performed by an apparatus for providing a virtual space according to an embodiment of the present invention.
5 is an exemplary diagram for explaining a process of extracting a straight line component from a real space by an apparatus for providing a virtual space according to an embodiment of the present invention.
6 is an exemplary diagram for explaining a process in which a virtual space providing apparatus creates a virtual space by assigning attributes to a virtual space model according to an embodiment of the present invention.
7 is an exemplary diagram for explaining a process of arranging an object in a virtual space by an apparatus for providing a virtual space according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.

도 1은 본 발명의 일 실시예에 따른 가상 공간 제공 장치의 블록 구성도이다.1 is a block diagram of an apparatus for providing a virtual space according to an embodiment of the present invention.

도 1에 나타낸 바와 같이 일 실시예에 따른 가상 공간 제공 장치(100)는 영상 획득부(110), 입력부(120), 저장부(130), 출력부(140), 제어부(150)를 포함한다.As shown in FIG. 1 , the apparatus 100 for providing a virtual space according to an embodiment includes an image acquisition unit 110 , an input unit 120 , a storage unit 130 , an output unit 140 , and a control unit 150 . .

영상 획득부(110)는 현실 공간에 대한 영상을 획득한다. 예를 들어, 영상 획득부(110)는 현실 공간에 대한 2차원 영상 정보와 깊이 정보를 획득할 수 있다.The image acquisition unit 110 acquires an image of a real space. For example, the image acquisition unit 110 may acquire 2D image information and depth information about the real space.

이러한 영상 획득부(110)는 현실 세계를 촬영하는 카메라를 포함할 수 있고, 카메라에 의해 촬영된 프레임의 깊이 정보를 센싱하는 깊이 센서를 더 포함할 수 있다. 이 경우라면, 영상 획득부(110)는 카메라 및 깊이 센서를 이용하여 현실 공간에 대한 2차원 영상 정보와 깊이 정보를 직접 생성할 수 있다.The image acquisition unit 110 may include a camera that captures the real world, and may further include a depth sensor that senses depth information of a frame photographed by the camera. In this case, the image acquisition unit 110 may directly generate 2D image information and depth information for a real space using a camera and a depth sensor.

또는, 영상 획득부(110)는 가상 공간 제공 장치(100)와는 별도로 구비된 카메라 및 깊이 센서로부터 정보를 입력받을 수 있는 통신 인터페이스를 포함할 수 있다. 이 경우라면, 별도의 카메라에 의해 2차원 영상 정보가 생성되며, 영상 획득부(110)는 통신 인터페이스를 통해 2차원 영상 정보를 입력받아 획득할 수 있다. 또, 별도의 깊이 센서에 의해 2차원 영상 정보에 대응하는 프레임의 깊이 정보가 생성되고, 영상 획득부(110)는 통신 인터페이스를 통해 깊이 정보를 입력받아 획득할 수 있다.Alternatively, the image acquisition unit 110 may include a communication interface capable of receiving information from a camera and a depth sensor provided separately from the virtual space providing apparatus 100 . In this case, two-dimensional image information is generated by a separate camera, and the image acquisition unit 110 may receive and acquire two-dimensional image information through a communication interface. In addition, depth information of a frame corresponding to 2D image information is generated by a separate depth sensor, and the image acquisition unit 110 may receive and acquire depth information through a communication interface.

입력부(120)는 사용자가 가상 공간 제공 장치(100)와의 인터랙션을 위해 사용자 명령을 입력할 수 있는 인터페이스 수단이다. 예를 들어, 입력부(120)은 가상 공간 제공 장치(100)의 일측에 마련된 키패드를 포함할 수 있다. 또, 입력부(120)로서 출력부(140)를 통해 그래픽 사용자 인터페이스가 제공될 수도 있다.The input unit 120 is an interface means through which a user can input a user command for interaction with the virtual space providing apparatus 100 . For example, the input unit 120 may include a keypad provided on one side of the virtual space providing apparatus 100 . Also, as the input unit 120 , a graphic user interface may be provided through the output unit 140 .

저장부(130)에는 기 정의된 복수개의 가상 공간 모델이 저장되며, 복수개의 가상 공간 모델에 대한 구조적 특징에 대한 정보가 함께 저장될 수 있다. 또, 저장부(130)에는 가상 공간에 배치할 수 있는 복수개의 객체와 각 객체에 대응하는 텍스처(texture)를 포함하는 객체 데이터베이스가 함께 저장될 수 있다. 아울러, 저장부(130)에는 제어부(150)에 의한 실행 시에, 가상 공간 제공 과정을 전반적으로 제어할 수 있는 프로세스를 수행하는 컴퓨터 실행가능 명령어가 저장될 수 있다. 예를 들어, 저장부(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리, 램, 롬 중 적어도 하나의 타입의 컴퓨터로 읽을 수 있는 기록매체를 포함할 수 있다.The storage unit 130 stores a plurality of predefined virtual space models, and information on structural features of the plurality of virtual space models may be stored together. Also, the storage unit 130 may store a plurality of objects that can be arranged in the virtual space and an object database including textures corresponding to each object. In addition, the storage unit 130 may store computer-executable instructions that, when executed by the controller 150 , perform a process capable of controlling the virtual space provision process as a whole. For example, the storage unit 130 may include at least one of a flash memory type, a hard disk type, a multimedia card micro type, a card type memory, a RAM, and a ROM. It may include a computer-readable recording medium of the type.

출력부(140)는 제어부(150)에 의해 수행되는 프로세스의 결과에 의한 제어신호에 따라, 현실 공간에 대응하는 가상 공간 모델에 의한 가상 공간을 포함하는 화면을 출력할 수 있다. 이처럼, 출력부(140)를 통해 출력되는 가상 공간 내에는 현실 공간에 대한 영상에서 추출할 수 있는 텍스처에 대응하는 객체가 배치되어 텍스처에 대응하는 속성이 가상 공간 모델에 부여될 수 있다. 예를 들어, 출력부(140)는 LCD(Liquid Crystal Display) 등과 같은 평판 디스플레이 소자를 포함할 수 있다.The output unit 140 may output a screen including a virtual space according to a virtual space model corresponding to the real space according to a control signal according to a result of the process performed by the controller 150 . As such, an object corresponding to a texture that can be extracted from an image of a real space is disposed in the virtual space output through the output unit 140 , and an attribute corresponding to the texture may be assigned to the virtual space model. For example, the output unit 140 may include a flat panel display device such as a liquid crystal display (LCD).

제어부(150)는 저장부(130)에 저장된 복수개의 가상 공간 모델 중에서, 영상 획득부(110)에 의해 획득된 현실 공간에 대한 영상에 대응하는 어느 하나의 가상 공간 모델을 선택하고, 현실 공간에 대한 영상의 일부 영역에서 추출된 특성을 기초로, 선택된 가상 공간 모델에게 속성을 부여하여 가상 공간을 생성하며, 입력부(120)를 통한 사용자와의 인터랙션에 따라, 저장부(130)에 저장된 객체 데이터베이스를 이용하여 가상 공간 내에 하나 이상의 객체를 배치할 수 있다.The control unit 150 selects any one virtual space model corresponding to the image for the real space obtained by the image acquisition unit 110 from among the plurality of virtual space models stored in the storage unit 130, and Based on the characteristics extracted from the partial region of the image for the image, a virtual space is created by assigning a property to the selected virtual space model, and according to the interaction with the user through the input unit 120 , the object database stored in the storage unit 130 . can be used to place one or more objects in a virtual space.

이러한 제어부(150)는 영상 획득부(110)에 의해 획득된 현실 공간에 대한 영상을 분석하여 현실 공간의 구조적 특징을 추출하고, 저장부(130)에 저장된 복수개의 가상 공간 모델 중에서 추출된 구조적 특징과의 유사도가 가장 높은 가상 공간 모델을 출력부(140)를 통해 제공할 가상 공간 모델로서 선택할 수 있다.The control unit 150 analyzes the image of the real space obtained by the image acquisition unit 110 to extract structural features of the real space, and the structural features extracted from the plurality of virtual space models stored in the storage unit 130 . A virtual space model having the highest degree of similarity to the virtual space model may be selected as the virtual space model to be provided through the output unit 140 .

또, 제어부(150)는 현실 공간의 구조적 특징을 추출할 때에, 현실 공간에 대한 영상 내에서 복수개의 직선 성분을 추출하고, 현실 공간에 대한 영상의 깊이 정보를 획득하며, 추출된 복수개의 직선 성분을 연장하여 소실점을 검출하고, 검출된 소실점의 위치를 기준으로 하여 복수개의 직선 성분이 형성할 수 있는 면 중에서 가상 공간의 벽면을 정의하며, 복수개의 직선 성분이 형성할 수 있는 면 중에서 정의된 벽면 내의 창문을 정의하고, 정의된 벽면에 대한 정보와 정의된 창문에 대한 정보를 구조적 특징으로서 획득할 수 있다.In addition, when extracting structural features of real space, the controller 150 extracts a plurality of linear components from an image for real space, acquires depth information of an image for real space, and extracts a plurality of linear components extends to detect a vanishing point, and defines a wall surface of the virtual space from among the surfaces that can be formed by a plurality of linear components based on the position of the detected vanishing point, and a wall surface defined from among the surfaces that can be formed by a plurality of linear components It is possible to define a window in the interior, and obtain information about the defined wall and information about the defined window as structural features.

또, 제어부(150)는 저장부(130)에 저장될 수 있는 컴퓨터 실행가능 명령어를 실행하여 가상 공간 제공 과정을 전반적으로 제어할 수 있는 프로세스를 수행할 수 있다. 예컨대, 제어부(150)는 CPU(Central Processing Unit)나 GPU(Graphics Processing Unit) 등과 같은 프로세서를 포함할 수 있다.In addition, the controller 150 may execute a computer-executable command that may be stored in the storage unit 130 to perform a process capable of controlling the virtual space provision process as a whole. For example, the controller 150 may include a processor such as a central processing unit (CPU) or a graphics processing unit (GPU).

도 2는 본 발명의 일 실시예에 따른 가상 공간 제공 장치가 수행하는 가상 공간 제공 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method for providing a virtual space performed by an apparatus for providing a virtual space according to an embodiment of the present invention.

도 2에 나타낸 바와 같이 일 실시예에 따른 가상 공간 제공 방법은, 현실 공간에 대한 영상을 획득한 후, 기 정의된 복수개의 가상 공간 모델 중에서, 현실 공간에 대한 영상에 대응하는 어느 하나의 가상 공간 모델을 선택하는 단계(S200, S300)를 포함한다.As shown in FIG. 2 , in the method of providing a virtual space according to an embodiment, after acquiring an image of a real space, any one virtual space corresponding to the image of the real space from among a plurality of predefined virtual space models and selecting a model (S200, S300).

이어서, 일 실시예에 따른 가상 공간 제공 방법은, 현실 공간에 대한 영상의 일부 영역에서 추출된 텍스처를 기초로, 선택된 가상 공간 모델에게 속성을 부여하여 가상 공간을 생성하는 단계(S400, S500)를 더 포함한다.Next, the method for providing a virtual space according to an embodiment includes the steps of creating a virtual space by assigning attributes to a selected virtual space model based on a texture extracted from a partial region of an image of the real space (S400, S500). include more

그리고, 일 실시예에 따른 가상 공간 제공 방법은, 사용자 인터페이스를 통한 인터랙션에 따라, 기 정의된 객체 데이터베이스를 이용하여 가상 공간 내에 하나 이상의 객체를 배치하는 단계(S600)를 더 포함한다.In addition, the method of providing a virtual space according to an embodiment further includes arranging one or more objects in the virtual space using a predefined object database according to an interaction through a user interface (S600).

도 3은 본 발명의 일 실시예에 따른 가상 공간 제공 장치가 수행하는 가상 공간 제공 방법에서 가상 공간 모델을 선택하는 과정을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a process of selecting a virtual space model in a method for providing a virtual space performed by an apparatus for providing a virtual space according to an embodiment of the present invention.

도 3에 나타낸 바와 같이 일 실시예에 따른 가상 공간 제공 방법에서 가상 공간 모델을 선택하는 단계(S300)는, 현실 공간에 대한 영상을 분석하여 현실 공간의 구조적 특징을 추출하는 단계(S310) 및 복수개의 가상 공간 모델 중에서 구조적 특징과 가장 유사한 가상 공간 모델을 어느 하나의 가상 공간 모델로서 선택하는 단계(S320)를 포함한다.As shown in FIG. 3 , the step of selecting a virtual space model in the method for providing a virtual space according to an embodiment ( S300 ) includes analyzing an image of the real space to extract structural features of the real space ( S310 ) and a plurality of and selecting, as any one virtual space model, a virtual space model most similar to a structural feature from among the virtual space models ( S320 ).

도 4는 본 발명의 일 실시예에 따른 가상 공간 제공 장치가 수행하는 가상 공간 제공 방법에서 현실 공간의 구조적 특징을 추출하는 과정을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a process of extracting structural features of a real space in a method for providing a virtual space performed by an apparatus for providing a virtual space according to an embodiment of the present invention.

도 4에 나타낸 바와 같이 일 실시예에 따른 가상 공간 제공 방법에서 현실 공간의 구조적 특징을 추출하는 단계(S310)는, 현실 공간에 대한 영상 내에서 복수개의 직선 성분을 추출하는 단계(S311), 현실 공간에 대한 영상의 깊이 정보를 획득하는 단계(S312), 복수개의 직선 성분을 연장하여 소실점을 검출하는 단계(S313), 검출된 소실점의 위치를 기준으로 하여 복수개의 직선 성분이 형성할 수 있는 면 중에서 가상 공간의 벽면을 정의하는 단계(S14), 복수개의 직선 성분이 형성할 수 있는 면 중에서 정의된 벽면 내의 창문을 정의하는 단계(S315), 정의된 벽면에 대한 정보와 정의된 창문에 대한 정보를 현실 공간의 구조적 특징으로서 획득하는 단계(S316)를 포함한다.As shown in FIG. 4 , in the method for providing a virtual space according to an embodiment, the step of extracting the structural features of the real space ( S310 ), the step of extracting a plurality of linear components from the image of the real space ( S311 ), the reality A step of obtaining depth information of an image for space (S312), a step of detecting a vanishing point by extending a plurality of linear components (S313), a surface where a plurality of linear components can be formed based on the position of the detected vanishing point Among these, the step of defining a wall surface of the virtual space (S14), the step of defining a window within the wall defined among the surfaces that can be formed by a plurality of linear components (S315), information on the defined wall surface and information on the defined window and acquiring as a structural feature of real space (S316).

이하, 도 1 내지 도 7을 참조하여 본 발명의 일 실시예에 따른 가상 공간 제공 장치가 수행하는 가상 공간 제공 방법에 대해 더 자세히 살펴보기로 한다.Hereinafter, a virtual space providing method performed by the virtual space providing apparatus according to an embodiment of the present invention will be described in more detail with reference to FIGS. 1 to 7 .

먼저, 영상 획득부(110)는 현실 공간에 대한 영상을 획득한다(S200). 예를 들어, 영상 획득부(110)는 카메라 및 깊이 센서를 이용하여 현실 공간에 대한 2차원 영상 정보와 깊이 정보를 획득할 수 있다.First, the image acquisition unit 110 acquires an image of the real space (S200). For example, the image acquisition unit 110 may acquire 2D image information and depth information for a real space by using a camera and a depth sensor.

그리고, 제어부(150)는 기 정의되어 저장부(130)에 저장된 복수개의 가상 공간 모델 중에서 영상 획득부(110)에 의해 획득된 현실 공간에 대한 영상에 대응하는 어느 하나의 가상 공간 모델을 선택한다(S300).Then, the controller 150 selects any one virtual space model corresponding to the image for the real space acquired by the image acquisition unit 110 from among a plurality of predefined virtual space models stored in the storage unit 130 . (S300).

여기서, 제어부(150)는 현실 공간에 대한 영상에 대응하는 가상 공간 모델을 선택하기 위해, 단계 S200에서 획득된 현실 공간에 대한 영상을 분석하여 현실 공간의 구조적 특징을 추출한다(S310).Here, in order to select a virtual space model corresponding to the image for the real space, the controller 150 analyzes the image for the real space obtained in step S200 and extracts structural features of the real space ( S310 ).

이처럼, 제어부(150)가 현실 공간의 구조적 특징을 추출할 때에, 단계 S200에서 획득된 현실 공간에 대한 영상 내에서 먼저 복수개의 직선 성분을 추출한다. 예를 들어, 제어부(150)는 에지 디텍션(edge detection) 방식이나 피처 포인트(feature point) 방식을 이용하여 현실 공간에 대한 영상에 포함된 고주파수(high frequency) 성분을 분석하여 일직선으로 이어지는 직선 성분들을 정의할 수 있다(S311).As such, when the control unit 150 extracts the structural features of the real space, a plurality of linear components are first extracted from the image for the real space obtained in step S200. For example, the control unit 150 analyzes a high frequency component included in an image for real space using an edge detection method or a feature point method to generate linear components leading to a straight line. can be defined (S311).

그리고, 제어부(150)는 현실 공간에 대한 영상의 깊이 정보를 획득한다. 예를 들어, 제어부(150)는 현실 공간에 대한 영상을 획득할 때에, 피처 포인트 방식이나 매칭 방식을 이용하여, 영상 내에서 영역들이 움직이는 양을 디스패리티(disparity)로 하여 깊이 맵을 계산할 수 있다. 또는, 영상 획득부(110)를 구성하는 깊이 센서로부터 센싱값을 입력받아 깊이 정보를 획득할 수도 있다(S312).Then, the controller 150 acquires the depth information of the image for the real space. For example, when acquiring an image for real space, the controller 150 may calculate a depth map by using a feature point method or a matching method as disparity as the amount of movement of regions in the image. . Alternatively, depth information may be acquired by receiving a sensing value from a depth sensor constituting the image acquisition unit 110 (S312).

이어서, 제어부(150)는 현실 공간에 대한 영상 내에 추출된 복수개의 직선 성분을 연장하여 소실점을 검출하며(S313), 검출된 소실점의 위치를 기준으로 하여 복수개의 직선 성분이 형성할 수 있는 면 중에서 가상 공간의 벽면을 정의한다. 예를 들어, 제어부(150)는 소실점이 검출된 위치에서 복수개의 직선 성분이 형성할 수 있는 면 중에서 가장 넓게 차지할 수 있는 공간을 첫 번째 벽면으로 정의할 수 있으며, 첫 번째 벽면과 일정 각도로 교차하여 이루는 면들 중에서 가장 넓게 차지할 수 있는 공간을 두 번째 벽면으로 정의할 수 있고, 두 번째 벽의 반대편 공간 중 가장 넓은 면을 세 번째 벽면으로 정의할 수 있다(S314). 예컨대, 단계 S200에서 현실 공간에 대한 영상을 획득할 때에 어떤 각도로 현실 공간에 대한 영상을 획득하는가에 따라 가상 공간의 벽면은 두 개의 벽면 또는 세 개의 벽면으로 정의될 수 있다. 도 5에는 (가)와 같은 현실 공간에 대한 영상에 대해 (나)와 같이 두 개의 벽면(401, 402)이 정의되는 예를 나타내었다.Next, the control unit 150 detects a vanishing point by extending the plurality of linear components extracted from the image for real space (S313), and among the surfaces that can be formed by the plurality of linear components based on the position of the detected vanishing point. Define the wall of the virtual space. For example, the control unit 150 may define a space that can be most widely occupied among surfaces that can be formed by a plurality of straight line components at a position where the vanishing point is detected as the first wall surface, and intersect the first wall surface at a predetermined angle. A space that can occupy the widest area among the surfaces formed by the method may be defined as the second wall surface, and the widest surface among the spaces opposite to the second wall may be defined as the third wall surface (S314). For example, the wall of the virtual space may be defined as two walls or three walls according to an angle at which the image of the real space is acquired when the image of the real space is acquired in step S200. 5 shows an example in which two wall surfaces 401 and 402 are defined as shown in (B) for an image of a real space as shown in (A).

그리고, 제어부(150)는 복수개의 직선 성분이 형성할 수 있는 면 중에서 단계 S314에서 정의된 벽면 내의 창문을 정의한다. 예를 들어, 제어부(150)는 복수개의 직선 성분이 형성할 수 있는 면 중에서 단계 S314에서 정의된 벽면 내에 면을 창문으로 정의할 수 있다(S315). 예컨대, 도 5에 나타낸 바와 같이 벽면(401) 내의 면을 창문(403)으로 정의할 수 있으며, 도 5에는 하나의 창문(403)을 정의하는 예를 나타내었으나 이처럼 창문(403)을 정의하는 과정을 여러 차례 반복하여 복수의 창문을 정의할 수 있다.Then, the control unit 150 defines a window in the wall surface defined in step S314 among the surfaces that can be formed by the plurality of linear components. For example, the controller 150 may define a surface within the wall surface defined in step S314 as a window among surfaces that can be formed by a plurality of linear components ( S315 ). For example, as shown in FIG. 5 , a surface in the wall 401 may be defined as the window 403 , and although an example of defining one window 403 is shown in FIG. 5 , the process of defining the window 403 in this way can be repeated several times to define multiple windows.

이어서, 제어부(150)는 단계 S314에서 정의된 벽면에 대한 정보와 단계 S315에서 정의된 창문에 대한 정보를 현실 공간의 구조적 특징으로서 획득한다(S316).Next, the controller 150 acquires the information on the wall defined in step S314 and the information on the window defined in step S315 as structural features of the real space ( S316 ).

아울러, 제어부(150)는 저장부(130)에 저장된 복수개의 가상 공간 모델 중에서 단계 S316에서 획득한 구조적 특징과 가장 유사한 가상 공간 모델을 사용자에게 제공할 가상 공간을 위한 가상 공간 모델로서 선택한다. 여기서, 제어부(150)는 저장부(130)에 저장된 복수개의 가상 공간 모델 중에서 단계 S314에서 정의된 벽면과 단계 S315에서 정의된 창문을 가지는 가상 공간 모델을 검색하여 가장 유사한 가상 공간 모델을 선택한다. 예를 들어, 제어부(150)는 단계 S310에서 추출된 현실 공간의 구조적 특징과 저장부(130)에 저장된 복수개의 가상 공간 모델의 유사도를 각각 산출하며, 가장 유사도가 높은 가상 공간 모델을 사용자에게 제공할 가상 공간을 위한 가상 공간 모델로서 선택할 수 있다.In addition, the controller 150 selects a virtual space model most similar to the structural characteristics obtained in step S316 from among the plurality of virtual space models stored in the storage unit 130 as a virtual space model for the virtual space to be provided to the user. Here, the controller 150 searches for a virtual space model having the wall defined in step S314 and the window defined in step S315 from among the plurality of virtual space models stored in the storage unit 130 and selects the most similar virtual space model. For example, the control unit 150 calculates the similarity between the structural features of the real space extracted in step S310 and the plurality of virtual space models stored in the storage unit 130 , respectively, and provides the virtual space model with the highest similarity to the user. You can select it as a virtual space model for the virtual space you want to do.

다음으로, 제어부(150)는 현실 공간에 대한 영상의 일부 영역에서 추출된 텍스처를 기초로, 단계 S300에서 선택된 가상 공간 모델에게 속성을 부여하여 가상 공간을 생성하고, 출력부(140)는 제어부(150)에 의해 생성된 가상 공간을 화면으로 출력한다. 여기서, 제어부(150)는 가상 공간에 미리 정의된 영역에 대한 현실 공간의 대응 영역에서 텍스처를 추출하며, 추출된 텍스처에 대응하는 객체를 저장부(130)의 객체 데이터베이스를 이용해 가상 공간에 생성함으로써, 추출된 텍스처에 대응하는 속성을 해당 가상 공간에 부여할 수 있다(S500). 예를 들어, 도 6에 나타낸 바와 같이 객체 데이터베이스를 검색하여, 현실 공간의 바닥면에서 추출된 텍스처에 대응하는 객체로서 침대(501)를 생성할 수 있다. 또, 현실 공간의 벽면에서 추출된 텍스처에 대응하는 객체로서 액자(502)와 벽장(503)을 생성할 수도 있다.Next, the controller 150 generates a virtual space by assigning properties to the virtual space model selected in step S300 based on the texture extracted from a partial region of the image for the real space, and the output unit 140 generates the virtual space. 150) and output the virtual space created by the screen. Here, the control unit 150 extracts a texture from a region corresponding to a region predefined in the virtual space in real space, and generates an object corresponding to the extracted texture in the virtual space using the object database of the storage unit 130 . , an attribute corresponding to the extracted texture may be assigned to the corresponding virtual space (S500). For example, as shown in FIG. 6 , the bed 501 may be created as an object corresponding to the texture extracted from the floor surface of the real space by searching the object database. In addition, the frame 502 and the closet 503 may be generated as objects corresponding to the texture extracted from the wall of the real space.

한편, 사용자는 입력부(120) 등의 사용자 인터페이스를 이용하여 가상 공간 제공 장치(100)와의 인터랙션을 유발할 수 있고, 제어부(150)는 인터랙션에 따라, 저장부(130)의 객체 데이터베이스를 이용하여 가상 공간 내에 하나 이상의 객체를 배치한다(S600). 예를 들어, 도 7에 나타낸 바와 같이 사용자에 의해 지정된 위치에 사용자에 의해 지정된 객체들(601, 602, 603)을 생성할 수 있다.Meanwhile, the user may cause an interaction with the virtual space providing apparatus 100 by using a user interface such as the input unit 120 , and the controller 150 uses the object database of the storage unit 130 according to the interaction to create a virtual One or more objects are arranged in space (S600). For example, as shown in FIG. 7 , the objects 601 , 602 , and 603 designated by the user may be created at the location designated by the user.

지금까지 설명한 바와 같이, 본 발명의 실시예에 의하면, 기 정의된 복수개의 가상 공간 모델 중에서 현실 공간에 대한 영상에 대응하는 가상 공간 모델을 선택하여 가상 공간을 제공함으로써, 적은 량의 컴퓨팅 연산량을 요구하기에, 컴퓨팅 연산능력이 제한되는 경우에도 실시간 처리가 가능하도록 하고, 가상 공간을 포함하는 가상 현실 화면에 대한 현실감은 항상 기초 수준 이상을 유지하도록 한다.As described so far, according to an embodiment of the present invention, a small amount of computation is required by selecting a virtual space model corresponding to an image of a real space from among a plurality of predefined virtual space models and providing a virtual space. Hereinafter, real-time processing is possible even when computing power is limited, and the sense of reality for a virtual reality screen including a virtual space is always maintained at a basic level or higher.

본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each block in the block diagram attached to the present invention and each step in the flowchart may be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, such that the instructions executed by the processor of the computer or other programmable data processing equipment may be configured in the respective blocks in the block diagram or in the flowchart. Each step creates a means for performing the described functions. These computer program instructions may also be stored in a computer-usable or computer-readable memory that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer-usable or computer-readable memory. The instructions stored in the block diagram may also produce an item of manufacture containing instruction means for performing a function described in each block of the block diagram or each step of the flowchart. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for carrying out the functions described in each block of the block diagram and each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in blocks or steps to occur out of order. For example, it is possible that two blocks or steps shown one after another may in fact be performed substantially simultaneously, or that the blocks or steps may sometimes be performed in the reverse order according to the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

본 발명의 실시예에 따르면, 기 정의된 복수개의 가상 공간 모델 중에서 현실 공간에 대한 영상에 대응하는 가상 공간 모델을 선택하여 가상 공간을 제공한다.According to an embodiment of the present invention, a virtual space is provided by selecting a virtual space model corresponding to an image of a real space from among a plurality of predefined virtual space models.

이러한 본 발명은 스마트폰 등과 같은 모바일 디바이스를 통해 가상 공간을 제공하는 기술분야뿐만 아니라 가상 공간이 포함되는 가상 현실 화면을 제공하는 다양한 기술분야에 이용할 수 있다.The present invention can be used not only in the technical field of providing a virtual space through a mobile device such as a smart phone, but also in various technical fields of providing a virtual reality screen including a virtual space.

100 : 가상 공간 제공 장치
110 : 영상 획득부 120 : 입력부
130 : 저장부 140 : 출력부
150 : 제어부
100: virtual space providing device
110: image acquisition unit 120: input unit
130: storage unit 140: output unit
150: control unit

Claims (9)

가상 공간 제공 장치가 수행하는 가상 공간 제공 방법으로서,
현실 공간에 대한 영상을 분석하여 상기 현실 공간의 구조적 특징을 추출하는 단계와,
기 정의된 복수개의 가상 공간 모델 중에서, 상기 구조적 특징과 가장 유사한 어느 하나의 가상 공간 모델을 선택하는 단계와,
상기 현실 공간에 대한 영상의 일부 영역에서 추출된 텍스처(texture)를 기초로, 상기 선택된 가상 공간 모델에게 속성을 부여하여 가상 공간을 생성하는 단계와,
사용자 인터페이스를 통한 인터랙션에 따라, 기 정의된 객체 데이터베이스를 이용하여 상기 가상 공간 내에 하나 이상의 객체를 배치하는 단계를 포함하고,
상기 구조적 특징을 추출하는 단계는,
상기 현실 공간에 대한 영상 내에서 복수개의 직선 성분을 추출하는 단계와,
상기 현실 공간에 대한 영상의 깊이 정보를 획득하는 단계와,
상기 복수개의 직선 성분을 연장하여 소실점을 검출하는 단계와,
상기 검출된 소실점의 위치를 기준으로 하여 상기 복수개의 직선 성분이 형성할 수 있는 면 중에서 넓이에 기초하여 상기 가상 공간의 벽면을 정의하는 단계와,
상기 복수개의 직선 성분이 형성할 수 있는 면 중에서 상기 정의된 벽면 내의 창문을 정의하는 단계와,
상기 정의된 벽면에 대한 정보와 상기 정의된 창문에 대한 정보를 상기 구조적 특징으로서 획득하는 단계를 포함하는
가상 공간 제공 방법.
A virtual space providing method performed by a virtual space providing device, comprising:
extracting structural features of the real space by analyzing the image of the real space;
selecting any one virtual space model most similar to the structural feature from among a plurality of predefined virtual space models;
creating a virtual space by assigning attributes to the selected virtual space model based on a texture extracted from a partial region of the image for the real space;
according to an interaction through a user interface, arranging one or more objects in the virtual space using a predefined object database;
The step of extracting the structural features,
extracting a plurality of linear components from the image for the real space;
obtaining depth information of an image for the real space;
detecting a vanishing point by extending the plurality of linear components;
defining a wall surface of the virtual space based on an area among surfaces that can be formed by the plurality of linear components based on the position of the detected vanishing point;
defining a window in the defined wall surface among the surfaces that the plurality of linear components can form;
Comprising the step of acquiring information about the defined wall and information about the defined window as the structural feature
How to provide virtual space.
삭제delete 삭제delete 제 1 항에 있어서,
상기 가상 공간을 생성하는 단계는, 상기 객체 데이터베이스에 저장된 객체 모델 중에서 상기 텍스처에 대응하는 속성을 가지는 객체를 상기 가상 공간에 생성하는
가상 공간 제공 방법.
The method of claim 1,
The generating of the virtual space may include generating an object having a property corresponding to the texture from among object models stored in the object database in the virtual space.
How to provide virtual space.
제 1 항 또는 제 4 항에 기재된 가상 공간 제공 방법을 프로세서가 수행하도록 하기 위하여
컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
In order for the processor to perform the virtual space providing method according to claim 1 or 4
A computer program stored in a computer-readable recording medium.
현실 공간에 대한 영상을 획득하는 영상 획득부와,
인터랙션을 위해 사용자 인터페이스를 제공하는 입력부와,
복수개의 가상 공간 모델 및 객체 데이터베이스가 저장되는 저장부와,
상기 현실 공간에 대한 영상에 대응하는 가공 공간을 출력하는 출력부와,
제어부를 포함하며,
상기 제어부는, 현실 공간에 대한 영상을 분석하여 상기 현실 공간의 구조적 특징을 추출하고, 상기 복수개의 가상 공간 모델 중에서, 상기 구조적 특징과 가장 유사한 어느 하나의 가상 공간 모델을 선택하고, 상기 현실 공간에 대한 영상의 일부 영역에서 추출된 텍스처(texture)를 기초로, 상기 선택된 가상 공간 모델에게 속성을 부여하여 가상 공간을 생성하며, 상기 사용자 인터페이스를 통한 인터랙션에 따라, 상기 객체 데이터베이스를 이용하여 상기 가상 공간 내에 하나 이상의 객체를 배치하되, 상기 구조적 특징을 추출할 때에, 상기 현실 공간에 대한 영상 내에서 복수개의 직선 성분을 추출하고, 상기 현실 공간에 대한 영상의 깊이 정보를 획득하며, 상기 복수개의 직선 성분을 연장하여 소실점을 검출하고, 상기 검출된 소실점의 위치를 기준으로 하여 상기 복수개의 직선 성분이 형성할 수 있는 면 중에서 넓이에 기초하여 상기 가상 공간의 벽면을 정의하며, 상기 복수개의 직선 성분이 형성할 수 있는 면 중에서 상기 정의된 벽면 내의 창문을 정의하고, 상기 정의된 벽면에 대한 정보와 상기 정의된 창문에 대한 정보를 상기 구조적 특징으로서 획득하는
가상 공간 제공 장치.
An image acquisition unit for acquiring an image of a real space,
an input unit providing a user interface for interaction;
A storage unit in which a plurality of virtual space models and object databases are stored;
an output unit for outputting a processing space corresponding to the image of the real space;
includes a control unit,
The control unit extracts structural features of the real space by analyzing the image of the real space, selects any one virtual space model most similar to the structural features from among the plurality of virtual space models, A virtual space is created by assigning properties to the selected virtual space model based on a texture extracted from a partial region of an image for disposing one or more objects within, when extracting the structural features, extracting a plurality of linear components from the image for the real space, acquiring depth information of the image for the real space, and obtaining the plurality of linear components extends to detect a vanishing point, and defines a wall surface of the virtual space based on an area among surfaces that can be formed by the plurality of linear components based on the position of the detected vanishing point, and the plurality of linear components are formed Defining a window in the defined wall among possible surfaces, and acquiring information about the defined wall and information about the defined window as the structural feature
Virtual space provider.
삭제delete 삭제delete 제 6 항에 있어서,
상기 제어부는, 상기 객체 데이터베이스에 저장된 객체 모델 중에서 상기 텍스처에 대응하는 속성을 가지는 객체를 상기 가상 공간에 생성하는
가상 공간 제공 장치.
7. The method of claim 6,
The controller is configured to generate an object having a property corresponding to the texture from among the object models stored in the object database in the virtual space.
Virtual space provider.
KR1020170143515A 2017-10-31 2017-10-31 Method and apparatus for providing virtual room KR102314787B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170143515A KR102314787B1 (en) 2017-10-31 2017-10-31 Method and apparatus for providing virtual room
KR1020210119820A KR102359230B1 (en) 2017-10-31 2021-09-08 Method and apparatus for providing virtual room

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170143515A KR102314787B1 (en) 2017-10-31 2017-10-31 Method and apparatus for providing virtual room

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210119820A Division KR102359230B1 (en) 2017-10-31 2021-09-08 Method and apparatus for providing virtual room

Publications (2)

Publication Number Publication Date
KR20190048506A KR20190048506A (en) 2019-05-09
KR102314787B1 true KR102314787B1 (en) 2021-10-20

Family

ID=66546140

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020170143515A KR102314787B1 (en) 2017-10-31 2017-10-31 Method and apparatus for providing virtual room
KR1020210119820A KR102359230B1 (en) 2017-10-31 2021-09-08 Method and apparatus for providing virtual room

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210119820A KR102359230B1 (en) 2017-10-31 2021-09-08 Method and apparatus for providing virtual room

Country Status (1)

Country Link
KR (2) KR102314787B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102649178B1 (en) 2024-01-10 2024-03-19 주식회사 커넥트코리아 Method, device and system for providing customized interior design
KR102652446B1 (en) 2023-12-29 2024-03-28 주식회사 커넥트코리아 Method, device and system for creating virtual space based on housing data

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102601196B1 (en) * 2022-06-10 2023-11-13 (주)딜리셔스랑고 Device, system, method and program for providing user-customized virtual space creation service
KR102622709B1 (en) * 2022-06-13 2024-01-08 태나다 주식회사 Method and Apparatus for generating 360 degree image including 3-dimensional virtual object based on 2-dimensional image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003518294A (en) * 1999-12-22 2003-06-03 ナショナル・リサーチ・カウンシル・オブ・カナダ 3D image search method
JP2006318015A (en) * 2005-05-10 2006-11-24 Sony Corp Image processing device, image processing method, image display system, and program
KR100735676B1 (en) * 2006-02-24 2007-07-06 조현덕 Operating system for model house with virtual reality and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120052772A (en) * 2010-11-16 2012-05-24 한국전자통신연구원 Method of providing argumented reality service in argumented reality environment and system for the same
KR102357078B1 (en) 2014-02-26 2022-01-27 사반트 시스템즈, 인크. A user generated virtual room-based user interface

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003518294A (en) * 1999-12-22 2003-06-03 ナショナル・リサーチ・カウンシル・オブ・カナダ 3D image search method
JP2006318015A (en) * 2005-05-10 2006-11-24 Sony Corp Image processing device, image processing method, image display system, and program
KR100735676B1 (en) * 2006-02-24 2007-07-06 조현덕 Operating system for model house with virtual reality and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102652446B1 (en) 2023-12-29 2024-03-28 주식회사 커넥트코리아 Method, device and system for creating virtual space based on housing data
KR102649178B1 (en) 2024-01-10 2024-03-19 주식회사 커넥트코리아 Method, device and system for providing customized interior design

Also Published As

Publication number Publication date
KR20190048506A (en) 2019-05-09
KR20210114365A (en) 2021-09-23
KR102359230B1 (en) 2022-02-08

Similar Documents

Publication Publication Date Title
KR102359230B1 (en) Method and apparatus for providing virtual room
EP3176678B1 (en) Gesture-based object measurement method and apparatus
CN105637564B (en) Generate the Augmented Reality content of unknown object
CN106355153B (en) A kind of virtual objects display methods, device and system based on augmented reality
KR102638526B1 (en) Modifying scenes in augmented reality using parameterized markers
CN105637559B (en) Use the structural modeling of depth transducer
CN105493154B (en) System and method for determining the range of the plane in augmented reality environment
US9224237B2 (en) Simulating three-dimensional views using planes of content
US11842514B1 (en) Determining a pose of an object from rgb-d images
JP2012151851A (en) Camera motion estimating method and device using depth information, and augmented reality system
US20190311199A1 (en) Adaptive sampling of training views
CN116097316A (en) Object recognition neural network for modeless central prediction
KR101919077B1 (en) Method and apparatus for displaying augmented reality
KR102063408B1 (en) Method and apparatus for interaction with virtual objects
KR102068489B1 (en) 3d object creation apparatus
CN111638794A (en) Display control method and device for virtual cultural relics
US20170214880A1 (en) Method for helping a person to select a furnishing covering surface
KR20150022158A (en) Apparatus and method for learning mechanical drawing
KR101991401B1 (en) Method and apparatus for displaying augmented reality
KR101849696B1 (en) Method and apparatus for obtaining informaiton of lighting and material in image modeling system
US9218104B2 (en) Image processing device, image processing method, and computer program product
CN102868905A (en) Image processing apparatus, image processing method, and program
EP4020400A2 (en) Image processing method and image processing device for generating 3d content by means of 2d images
Duenas Oviedo et al. Colour Hue and Texture Evaluation for 3D Symbolization of Indoor Environments Using RGB-D Data
CN114494579A (en) Icon generation method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant