KR102094772B1 - Method and server for controlling video - Google Patents

Method and server for controlling video Download PDF

Info

Publication number
KR102094772B1
KR102094772B1 KR1020180064838A KR20180064838A KR102094772B1 KR 102094772 B1 KR102094772 B1 KR 102094772B1 KR 1020180064838 A KR1020180064838 A KR 1020180064838A KR 20180064838 A KR20180064838 A KR 20180064838A KR 102094772 B1 KR102094772 B1 KR 102094772B1
Authority
KR
South Korea
Prior art keywords
user
image
location
virtual
real space
Prior art date
Application number
KR1020180064838A
Other languages
Korean (ko)
Other versions
KR20190003339A (en
Inventor
김선혁
박정경
설정민
Original Assignee
주식회사 레벨나인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 레벨나인 filed Critical 주식회사 레벨나인
Publication of KR20190003339A publication Critical patent/KR20190003339A/en
Application granted granted Critical
Publication of KR102094772B1 publication Critical patent/KR102094772B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/30Clipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 영상 제어 방법으로서, (a) 현실공간에 위치하고 있는 사용자의 위치정보를 획득하는 단계; (b) 상기 위치정보를 기초로, 상기 현실공간에 대응되도록 생성된 가상공간에 상기 사용자의 위치를 매칭시키는 단계; (c) 상기 가상공간에 매칭된 상기 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 상기 가상공간에 대한 가상영상을 생성하는 단계; 및 (d) 상기 생성된 가상영상을 영상출력장치에 제공하는 단계를 포함한다.The present invention is an image control method, comprising: (a) obtaining location information of a user located in a real space; (b) matching the location of the user to a virtual space created to correspond to the real space based on the location information; (c) generating a virtual image for the virtual space by displaying a virtual object associated with each user at the location of the user matched with the virtual space; And (d) providing the generated virtual image to the image output device.

Description

영상 제어 방법 및 서버{METHOD AND SERVER FOR CONTROLLING VIDEO}METHOD AND SERVER FOR CONTROLLING VIDEO

본 발명은 영상 제어 기술에 관한 것으로서, 타기종의 가상현실 기기 간에 출력되는 영상을 동기화 하고, 가상현실 기기를 착용하고 있는 사용자가 실제로 위치하고 있는 현실공간의 위치를 반영하는 영상 제어 방법 및 서버에 관한 것이다.The present invention relates to an image control technology, and relates to an image control method and a server that synchronizes the images output between different types of virtual reality devices and reflects the location of the real space in which the user wearing the virtual reality device is actually located. will be.

현재의 가상현실(Virtual Reality, VR) 영상을 제공하는 기기들의 경우 타 기종간에 같은 가상공간을 공유하기가 매우 어렵고, 헤드 마운티드 디스플레이(Head Mounted Display, HMD)와 같은 가상현실 영상을 제공하는 기기를 착용하고 있는 사용자들의 현실 공간에서의 위치와 가상현실 영상 안에서의 위치가 동기화되지 못하는 문제가 있어 사용자들 간의 충돌과 같은 위험한 상황이 발생하는 문제가 있다. 따라서, 다수의 인원이 동일한 공간 안에서 가상현실 컨텐츠를 체험하는 경우에 다수의 인원이 보고 있는 가상현실 영상의 동기화가 필요하고 가상현실 영상 내에서의 체험이 실제로도 반영이 되도록 하는 것이 필요하다.In the case of devices that provide virtual reality (VR) images, it is very difficult to share the same virtual space between different models, and devices that provide virtual reality images such as a head mounted display (HMD) There is a problem in that the location of the users wearing in the real space and the location in the virtual reality image are not synchronized, and thus a dangerous situation such as collision between users occurs. Therefore, when a plurality of people experience virtual reality content in the same space, it is necessary to synchronize the virtual reality images viewed by a plurality of people and to ensure that the experiences in the virtual reality images are actually reflected.

한국공개특허 제10-2012-0013021호Korean Patent Publication No. 10-2012-0013021

본 발명의 목적은 현실공간에 배치된 레이저, 마이크, 또는 영상촬영장치로부터 획득되는 데이터를 기초로 각 사용자들의 위치를 획득하여 가상공간에 대한 가상영상에 반영하고, 해당 가상영상을 사용자가 착용하고 있는 헤드 마운티드 디스플레이 또는 현실공간에 설치된 프로젝터에 제공하여, 헤드 마운티드 디스플레이를 착용하고 있는 사용자 및 착용하고 있지 않은 사용자 모두가 동일한 가상영상에 대한 체험이 가능하도록 하는 영상 제어 방법 및 서버를 제공하는데 있다. The object of the present invention is to acquire the location of each user based on data obtained from a laser, microphone, or image capture device disposed in a real space, reflect it in the virtual image of the virtual space, and wear the corresponding virtual image by the user It is to provide an image control method and a server to provide a head mounted display or a projector installed in a real space, so that both a user wearing a head mounted display and a user not wearing the head can experience the same virtual image.

상기 목적을 달성하기 위한 본 발명의 제1 측면은, 영상 제어 방법으로서, (a) 현실공간에 위치하고 있는 사용자의 위치정보를 획득하는 단계; (b) 상기 위치정보를 기초로, 상기 현실공간에 대응되도록 생성된 가상공간에 상기 사용자의 위치를 매칭시키는 단계; (c) 상기 가상공간에 매칭된 상기 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 상기 가상공간에 대한 가상영상을 생성하는 단계; 및 (d) 상기 생성된 가상영상을 영상출력장치에 제공하는 단계를 포함한다.A first aspect of the present invention for achieving the above object is an image control method comprising: (a) obtaining location information of a user located in a real space; (b) matching the location of the user to a virtual space created to correspond to the real space based on the location information; (c) generating a virtual image for the virtual space by displaying a virtual object associated with each user at the location of the user matched with the virtual space; And (d) providing the generated virtual image to the image output device.

바람직하게, 상기 (a) 단계는 상기 현실공간에 배치된 레이저 장치, 마이크 장치, 또는 영상촬영장치로부터 상기 사용자의 위치에 대한 정보를 획득하여, 각 사용자에 대한 위치좌표를 산출하는 단계를 포함할 수 있다.Preferably, the step (a) may include obtaining information about the location of the user from a laser device, a microphone device, or an imaging device disposed in the real space, and calculating position coordinates for each user. You can.

바람직하게, 상기 (b) 단계는 상기 각 사용자에 대한 위치좌표와 상기 가상공간의 위치좌표를 매칭시켜 상기 각 사용자의 가상공간 상의 위치를 결정하는 단계를 포함할 수 있다.Preferably, the step (b) may include determining a location on each user's virtual space by matching the location coordinates for each user with the location coordinates of the virtual space.

바람직하게, 상기 (d) 단계는 상기 영상출력장치가, 상기 사용자 중 적어도 하나의 사용자가 착용하고 있는 헤드마운티드 디스플레이에 해당하는 경우에는, 상기 헤드마운티드 디스플레이를 착용하고 있는 사용자의 위치 및 시점에 따라, 상기 헤드마운티드 디스플레이를 통하여 출력될 가상영상의 시점을 조절하는 단계를 더 포함할 수 있다.Preferably, in step (d), if the video output device corresponds to a head mounted display worn by at least one of the users, depending on the location and viewpoint of the user wearing the head mounted display, And, it may further include the step of adjusting the viewpoint of the virtual image to be output through the head-mounted display.

바람직하게, 상기 (d) 단계는 상기 영상출력장치가, 상기 현실공간에 가상영상을 출력시키기 위한 프로젝터에 해당하는 경우에는, 기설정된 시점방향에 따라 상기 프로젝터를 통하여 출력될 가상영상의 시점을 조절하는 단계를 더 포함하되, 상기 프로젝터는 상기 현실공간의 전면, 바닥, 좌측, 및 우측에 가상영상을 출력할 수 있다.Preferably, in step (d), when the image output device corresponds to a projector for outputting a virtual image to the real space, the viewpoint of the virtual image to be output through the projector is adjusted according to a preset viewpoint direction. The method may further include, but the projector may output a virtual image on the front, bottom, left, and right sides of the real space.

상기 목적을 달성하기 위한 본 발명의 제2 측면은, 영상 제어 서버로서, 현실공간에 위치하고 있는 사용자의 위치정보를 획득하는 위치정보 획득부; 상기 위치정보를 기초로, 상기 현실공간에 대응되도록 생성된 가상공간에 상기 사용자의 위치를 매칭시키는 위치 매칭부; 상기 가상공간에 매칭된 상기 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 상기 가상공간에 대한 가상영상을 생성하는 영상 생성부; 및 상기 생성된 가상영상을 영상출력장치에 제공하는 영상 제공부를 포함한다.A second aspect of the present invention for achieving the above object is an image control server, a location information acquisition unit for acquiring location information of a user located in a real space; A location matching unit matching the user's location to a virtual space generated to correspond to the real space based on the location information; An image generation unit that displays a virtual object associated with each user at a location of the user matched with the virtual space to generate a virtual image for the virtual space; And an image providing unit that provides the generated virtual image to the image output device.

바람직하게, 상기 위치정보 획득부는 상기 현실공간에 배치된 레이저 장치, 마이크 장치, 또는 영상촬영장치로부터 상기 사용자의 위치에 대한 정보를 획득하여, 각 사용자에 대한 위치좌표를 산출할 수 있다.Preferably, the location information acquiring unit may obtain information about the location of the user from a laser device, a microphone device, or an imaging device disposed in the real space, and calculate position coordinates for each user.

바람직하게, 상기 위치 매칭부는 상기 각 사용자에 대한 위치좌표와 상기 가상공간의 위치좌표를 매칭시켜 상기 각 사용자의 가상공간 상의 위치를 결정할 수 있다.Preferably, the location matching unit may determine a location on each user's virtual space by matching the location coordinates for each user with the location coordinates of the virtual space.

바람직하게, 상기 영상출력장치에 제공될 가상영상의 시점을 조정하는 영상 시점 조정부를 더 포함할 수 있다.Preferably, it may further include an image viewpoint adjustment unit for adjusting the viewpoint of the virtual image to be provided to the image output device.

바람직하게, 상기 영상 시점 조정부는 상기 영상출력장치가, 상기 사용자 중 적어도 하나의 사용자가 착용하고 있는 헤드마운티드 디스플레이에 해당하는 경우에는, 상기 헤드마운티드 디스플레이를 착용하고 있는 사용자의 위치 및 시점에 따라, 상기 헤드마운티드 디스플레이를 통하여 출력될 가상영상의 시점을 조절할 수 있다.Preferably, when the image viewing unit adjusts the video output device to a head mounted display worn by at least one of the users, according to the position and viewpoint of the user wearing the head mounted display, The viewpoint of the virtual image to be output may be adjusted through the head mounted display.

바람직하게, 상기 영상 시점 조정부는 상기 영상출력장치가, 상기 현실공간에 가상영상을 출력시키기 위한 프로젝터에 해당하는 경우에는, 기설정된 시점방향에 따라 상기 프로젝터를 통하여 출력될 가상영상의 시점을 조절하되, 상기 프로젝터는 상기 현실공간의 전면, 바닥, 좌측, 및 우측에 가상영상을 출력할 수 있다.Preferably, the image viewpoint adjusting unit adjusts the viewpoint of the virtual image to be output through the projector according to a preset viewpoint direction when the image output device corresponds to a projector for outputting a virtual image to the real space. , The projector may output virtual images on the front, bottom, left, and right sides of the real space.

상기한 바와 같이 본 발명에 의하면, 가상영상을 출력하는 기기의 종류에 상관없이 동일한 가상영상을 공유할 수 있고, 현실공간과 가상영상 내에서의 사용자의 위치를 동기화시키므로, 동일한 공간안에서 다수의 사용자들이 가상영상을 이용한 체험을 수행하는 경우에 사용자들 간의 인터랙션 및 현실공간 과의 인터랙션이 가능한 효과가 있다.As described above, according to the present invention, since the same virtual image can be shared regardless of the type of the device outputting the virtual image, and the user's position in the virtual space is synchronized with the real space, multiple users in the same space When they perform an experience using virtual images, there is an effect capable of interaction between users and interaction with a real space.

도 1은 본 발명의 바람직한 실시예에 따른 영상 제어 시스템에 대한 구성도이다.
도 2는 일 실시예에 따른 영상 제어 서버에 대한 블록도이다.
도 3은 일 실시예에 따른 영상 제어 방법을 나타내는 흐름도이다.
1 is a block diagram of an image control system according to a preferred embodiment of the present invention.
2 is a block diagram of an image control server according to an embodiment.
3 is a flowchart illustrating an image control method according to an embodiment.

이하, 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. "및/또는"은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다.Hereinafter, advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and the ordinary knowledge in the technical field to which the present invention pertains. It is provided to fully inform the holder of the scope of the invention, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification. “And / or” includes each and every combination of one or more of the items mentioned.

비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, components and / or sections, it goes without saying that these elements, components and / or sections are not limited by these terms. These terms are only used to distinguish one element, component or section from another element, component or section. Accordingly, it goes without saying that the first element, the first component or the first section mentioned below may be the second element, the second component or the second section within the technical spirit of the present invention.

또한, 각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, in each step, an identification code (for example, a, b, c, etc.) is used for convenience of explanation, and the identification code does not describe the order of each step, and each step is clearly specified in context. Unless the order is specified, it may occur differently from the order specified. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 “포함한다(comprises)" 및/또는 “포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, “comprises” and / or “comprising” refers to the components, steps, operations and / or elements mentioned above, the presence of one or more other components, steps, operations and / or elements. Or do not exclude additions.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless specifically defined.

또한, 본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, in describing embodiments of the present invention, when it is determined that a detailed description of known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to a user's or operator's intention or practice. Therefore, the definition should be made based on the contents throughout this specification.

도 1은 본 발명의 바람직한 실시예에 따른 영상 제어 시스템에 대한 구성도이다.1 is a block diagram of an image control system according to a preferred embodiment of the present invention.

도 1을 참조하면, 영상 제어 시스템(100)은 영상출력장치(110), 영상 제어 서버(120), 레이저 장치(130), 마이크 장치(140), 영상촬영장치(150)를 포함한다.Referring to FIG. 1, the image control system 100 includes an image output device 110, an image control server 120, a laser device 130, a microphone device 140, and an image photographing device 150.

영상출력장치(110)는 가상공간에 대한 가상현실 영상인 가상영상을 출력하는 장치이다. 바람직하게, 영상출력장치(110)는 사용자가 직접 착용 가능한 형태의 기기, 예를 들어, 헤드 마운티드 디스플레이(HMD)일 수 있고, 가상영상을 출력할 수 있는 기기, 예를 들어, 프로젝터, PC, 모바일 단말일 수 있다. 여기에서, 영상출력장치(110)는 제한된 특정한 현실공간 내에 위치되고, 그 개수에는 제한이 없다.The image output device 110 is a device that outputs a virtual image that is a virtual reality image for a virtual space. Preferably, the image output device 110 may be a device directly worn by a user, for example, a head mounted display (HMD), a device capable of outputting a virtual image, such as a projector, a PC, It may be a mobile terminal. Here, the image output device 110 is located in a limited specific real space, and there is no limit to the number.

영상 제어 서버(120)는 가상영상을 생성하여 제공하는 장치이다. 바람직하게, 영상 제어 서버(120)는 각 영상출력장치(110), 레이저 장치(130), 마이크 장치(140), 영상촬영장치(150)와 연결되어, 동일한 현실공간 내에 위치하고 있는 사용자들의 위치를 반영한 가상영상을 생성하고, 생성된 가상영상을 각 영상출력장치(110)에 제공할 수 있다. The image control server 120 is a device that generates and provides a virtual image. Preferably, the image control server 120 is connected to each image output device 110, a laser device 130, a microphone device 140, and an image photographing device 150 to locate users located in the same real space. The reflected virtual image may be generated and the generated virtual image may be provided to each image output device 110.

레이저 장치(130), 마이크 장치(140), 및 영상촬영장치(150) 각각은 현실공간에 설치되고, 현실공간에 위치하고 있는 각 사용자의 위치를 결정하기 위한 정보를 획득하여 영상 제어 서버(120)에 제공한다. 바람직하게, 레이저 장치(130), 마이크 장치(140), 및 영상촬영장치(150) 중 적어도 한 종류의 장치만이 현실공간에 배치될 수도 있고, 현실공간에 배치되는 해당 장치의 개수에는 제한이 없다. Each of the laser device 130, the microphone device 140, and the image photographing device 150 is installed in the real space and acquires information for determining the location of each user located in the real space, thereby controlling the image control server 120. To provide. Preferably, at least one of the laser device 130, the microphone device 140, and the image photographing device 150 may be disposed in the real space, and the number of devices disposed in the real space is limited. none.

도 2는 일 실시예에 따른 영상 제어 서버에 대한 블록도이다.2 is a block diagram of an image control server according to an embodiment.

도 2를 참조하면, 영상 제어 서버(120)는 위치정보 획득부(210), 위치 매칭부(220), 영상 생성부(230), 영상 제공부(240), 및 제어부(250)를 포함한다. 제어부(250)는 위치정보 획득부(210), 위치 매칭부(220), 영상 생성부(230), 및 영상 제공부(240)의 동작 및 데이터의 흐름을 제어한다. 이하에서는, 도 3을 참조하여, 영상 제어 서버(120)에서 수행되는 영상 제어 방법에 대하여 보다 구체적으로 설명한다.Referring to FIG. 2, the image control server 120 includes a location information acquisition unit 210, a location matching unit 220, an image generation unit 230, an image providing unit 240, and a control unit 250. . The control unit 250 controls the operation and data flow of the location information acquisition unit 210, the location matching unit 220, the image generation unit 230, and the image providing unit 240. Hereinafter, an image control method performed in the image control server 120 will be described in more detail with reference to FIG. 3.

본 발명에 따른 영상 제어 방법은, 제한된 공간인 특정한 현실공간에 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)가 설치되어 있고, 해당 현실공간의 벽면에 가상영상을 투사하기 위한 영상출력장치(예를 들어, 프로젝터)가 설치되어 있고, 가사영상을 출력하는 영상출력장치(예를 들어, HMD)를 착용하고 있는 사용자 및 착용하고 있지 않은 사용자가 해당 현실공간에 위치하고 있는 환경에서 수행된다. In the image control method according to the present invention, a laser device 130, a microphone device 140, or an image photographing device 150 is installed in a specific real space that is a limited space, and a virtual image is projected on a wall surface of the real space. An image output device (for example, a projector) for installation is installed, and a user who wears an image output device (for example, an HMD) for outputting lyrics and a user who does not wear is located in the corresponding real space. It is performed in the environment.

먼저, 영상 제어 서버(120)는 특정한 현실공간에 대응되는 가상공간을 구축하고, 가상공간에 대한 가상영상을 생성하여 영상출력장치(110)에 제공한다. First, the image control server 120 constructs a virtual space corresponding to a specific real space, generates a virtual image for the virtual space, and provides it to the image output device 110.

도 3을 참조하면, 위치정보 획득부(210)는 현실공간에 위치하고 있는 사용자의 위치정보를 획득한다(단계 S310). 바람직하게, 위치정보 획득부(210)는 현실공간에 배치된 레이저 장치(130) 또는 마이크 장치(140)로부터 각 사용자까지의 거리 및 방위각에 대한 정보, 또는 영상촬영장치(150)로부터 깊이값, 및 영상에서의 컴퓨터 비전 데이터에 대한 정보를 획득하여 현실공간에 위치하고 있는 사용자의 인원 및 위치를 결정할 수 있다. Referring to FIG. 3, the location information acquisition unit 210 acquires location information of a user located in a real space (step S310). Preferably, the location information acquisition unit 210 is information about the distance and azimuth from the laser device 130 or the microphone device 140 disposed in the real space to each user, or the depth value from the image taking device 150, And acquiring information about computer vision data in an image to determine the number and location of users located in the real space.

보다 구체적으로, 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150) 각각의 신호원으로부터 발생된 신호가 목표물에 해당하는 사용자로부터 반사되어오면, 위치정보 획득부(210)는 반사된 신호의 위상변화값을 기초로 신호를 발생시킨 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)와 사용자간의 거리를 측정한다. 여기에는 TOF(Time of Flight) 방식이 이용될 수 있다. 그 다음, 위치 정보 획득부(210)는 측정된 거리와 신호를 발생시킨 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)가 설치된 위치에서의 방위각을 기초로 삼각측량(triangulation) 방식을 이용하여 사용자의 위치를 결정할 수 있다.More specifically, when the signal generated from the signal source of each of the laser device 130, the microphone device 140, or the image photographing device 150 is reflected from the user corresponding to the target, the location information acquisition unit 210 Based on the phase change value of the reflected signal, the distance between the laser device 130, the microphone device 140, or the image photographing device 150 and the user generating the signal is measured. Here, a TOF (Time of Flight) method may be used. Next, the location information acquisition unit 210 is a triangulation based on the azimuth angle at the position where the laser device 130, the microphone device 140, or the image photographing device 150 where the measured distance and signal are generated ( triangulation) to determine the user's location.

또는, 위치정보 획득부(210)는 현실공간의 XYZ 평면에 각각 위치하고 있는 복수의 영상촬영장치(150)로부터 획득된 영상들로부터 깊이값을 획득하고, 정지(still)화면들의 RGB값을 획득한다. 여기에서, 영상촬영장치(150)는 깊이카메라(Depth camera)에 해당할 수 있다. 그 다음, 위치정보 획득부(210)는 깊이값, RGB값, 기설정된 화면 내의 기준점, 영상촬영장치(150)의 화각을 기초로 사용자의 위치를 결정할 수 있다. 즉, 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)가 설치되어 있는 위치는 미리 저장되어 있는바, 위치정보 획득부(210)는 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)의 위치와 그 각각의 장치로부터 사용자까지의 거리를 이용하여 특정 현실공간에서의 사용자의 위치를 결정할 수 있는 것이다.Alternatively, the location information acquiring unit 210 acquires a depth value from images acquired from a plurality of image photographing devices 150 respectively located in the XYZ plane of the real space, and acquires RGB values of still images. . Here, the image photographing apparatus 150 may correspond to a depth camera. Next, the location information acquisition unit 210 may determine the user's location based on the depth value, the RGB value, the reference point in the preset screen, and the angle of view of the image photographing apparatus 150. That is, the location where the laser device 130, the microphone device 140, or the image photographing device 150 is installed is stored in advance, and the location information obtaining unit 210 includes the laser device 130, the microphone device ( 140) Alternatively, the location of the image photographing device 150 and the distance from each device to the user can be used to determine the location of the user in a specific real space.

여기에서는, 위치정보 획득부(210)가 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)로부터 획득된 정보를 제공받아 사용자의 위치를 결정하는 것으로 설명하였으나, 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)에서 직접 사용자의 위치가 결정될 수도 있고, 이 경우에는 위치정보 획득부(210)는 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)로부터 결정된 사용자의 위치를 제공받을 수 있다. 또한, 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150) 각각으로부터 획득된 정보를 기초로 사용자의 위치가 결정되거나, 이들 각각으로부터 획득된 정보를 조합하거나 또는 종합하여 사용자의 위치가 결정될 수 있으며, 사용자의 위치를 결정하는 방법은 여기에 제한되지 않는다.Here, it has been described that the location information obtaining unit 210 determines the user's location by receiving information obtained from the laser device 130, the microphone device 140, or the image photographing device 150. 130, the user's location may be determined directly from the microphone device 140, or the image photographing device 150, and in this case, the location information acquisition unit 210 may include a laser device 130, a microphone device 140, or The determined user's location may be provided from the image photographing device 150. In addition, the user's location is determined based on the information obtained from each of the laser device 130, the microphone device 140, or the imaging device 150, or the information obtained from each of them is combined or combined to obtain the user's The location can be determined, and the method of determining the user's location is not limited to this.

바람직하게, 위치정보 획득부(210)는 사용자의 위치에 대한 정보들을 기초로 현실공간의 특정 벽면을 기초로 거리별로 사용자의 위치에 대한 정보를 필터링하여 사용자의 위치 및 인원을 최종적으로 결정할 수 있다.Preferably, the location information acquisition unit 210 may finally determine the user's location and number of people by filtering information about the user's location by distance based on a specific wall surface of the real space based on the user's location information. .

위치 매칭부(220)는 위치정보 획득부(210)를 통하여 결정된 위치정보를 기초로, 현실공간에 대응되도록 생성된 가상공간에 사용자의 위치를 매칭시킨다(단계 S320). 바람직하게, 위치 매칭부(220)는 각 사용자에 대한 위치좌표와 가상공간의 위치좌표를 매칭시켜 각 사용자의 가상공간 상의 위치를 결정할 수 있다.The location matching unit 220 matches the user's location to the virtual space generated to correspond to the real space based on the location information determined through the location information obtaining unit 210 (step S320). Preferably, the location matching unit 220 may determine the location on each user's virtual space by matching the location coordinates for each user with the location coordinates of the virtual space.

일 실시예에서, 영상 제어 서버(120)는 동작정보 획득부(도면에 도시하지 않음)를 포함할 수 있고, 동작정보 획득부는 현실공간에 위치한 사용자의 동작에 대한 정보를 획득한다. 바람직하게, 사용자가 착용하고 있는 영상출력장치(110)에 해당하는 헤드 마운티드 디스플레이는 착용자의 동작을 파악하는 동작인식장치를 구비할 수 있고, 동작정보 획득부는 동작인식장치로부터 헤드 마운티드 디스플레이를 착용하고 있는 사용자의 동작에 대한 정보를 획득할 수 있다. 또한, 동작정보 획득부는 헤드 마운티드 디스플레이를 착용하고 있는 사용자의 위치 및 방위각을 기초로 해당 착용자와 인터렉션하고 있는 사용자(HMD를 착용하지 않고 프로젝터를 통하여 출력되는 영상을 보고 있는 사용자)의 동작을 추측할 수 있다. 이에 더하여, 영상촬영장치(150)가 3D 카메라인 경우에는 영상촬영장치(150)를 통한 특정 현실공간의 3D 스캐닝이 가능하므로, 동작정보 획득부는 영상촬영장치(150)로부터 촬영된 3D 스캐닝 정보를 기초로 현실공간에 위치하고 있는 사용자의 동작정보를 획득할 수 있고, 레이저 장치(130)가 특정 개수 이상으로 현실공간에 설치되면 레이저 장치(130)를 통한 면적 단위의 스캔이 가능하므로, 동작정보 획득부는 레이저 장치(130)로부터 획득된 면적 단위의 스캔 정보를 기초로 특정 현실공간에 위치하고 있는 사용자의 동작정보를 획득할 수 있다.In one embodiment, the image control server 120 may include a motion information acquisition unit (not shown in the drawing), and the motion information acquisition unit acquires information about a user's motion located in a real space. Preferably, the head mounted display corresponding to the image output device 110 that the user wears may include a motion recognition device that identifies a wearer's motion, and the motion information acquisition unit wears the head mounted display from the motion recognition device It is possible to obtain information about the operation of the user. In addition, the motion information acquisition unit estimates the motion of a user interacting with the wearer (a user wearing an HMD and viewing an image output through the projector) based on the position and azimuth of the user wearing the head mounted display. You can. In addition, when the image photographing apparatus 150 is a 3D camera, since 3D scanning of a specific real space through the image photographing apparatus 150 is possible, the operation information acquisition unit receives 3D scanning information photographed from the image photographing apparatus 150. On the basis of this, it is possible to acquire motion information of a user located in a real space, and when the laser device 130 is installed in more than a certain number in the real space, scanning of an area unit through the laser device 130 is possible, thereby obtaining motion information The unit may acquire motion information of a user located in a specific real space based on the scan information of the area unit obtained from the laser device 130.

영상 생성부(230)는 가상공간에 매칭된 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 가상공간에 대한 가상영상을 생성한다(단계 S330). 바람직하게, 영상 생성부(230)는 각 사용자의 현실공간에서의 위치와 가상영상 내에서의 위치를 동기화 하여 표시하고, 동작정보 획득부로부터 획득된 각 사용자의 동작과 가상객체의 동작을 동기화하여 표시할 수 있다.The image generation unit 230 generates a virtual image for the virtual space by displaying the virtual objects associated with each user at the location of the user matched with the virtual space (step S330). Preferably, the image generator 230 synchronizes and displays the location of each user in the real space and the location in the virtual image, and synchronizes the motion of each user and the motion of the virtual object acquired from the motion information acquisition unit Can be displayed.

영상 제공부(240)는 생성된 가상영상을 영상출력장치에 제공한다(단계 S340). 바람직하게, 영상 제공부(240)를 통하여 가상영상을 제공하기 이전에, 영상 시점 조정부(도면에 도시되지 않음)는 영상출력장치(110)에 제공될 가상영상의 시점을 조정할 수 있다. 즉, 각 사용자의 위치좌표를 기초로 생성된 가상영상은, 제공될 영상출력장치(110)에 따라 시점이 조절된 후 제공되므로, 가상영상과 현실공간의 상태가 보다 정확하게 동기화될 수 있다.The image providing unit 240 provides the generated virtual image to the image output device (step S340). Preferably, before providing the virtual image through the image providing unit 240, the image viewpoint adjusting unit (not shown in the drawing) may adjust the viewpoint of the virtual image to be provided to the image output device 110. That is, since the virtual image generated based on the location coordinates of each user is provided after the viewpoint is adjusted according to the image output device 110 to be provided, the virtual image and the state of the real space can be more accurately synchronized.

일 실시예에서, 영상출력장치(110)가 현실공간에 위치하고 있는 사용자 중 적어도 하나의 사용자가 착용하고 있는 헤드 마운티드 디스플레이(HMD)에 해당하는 경우에는, 영상 시점 조정부는 해당 HMD를 착용하고 있는 사용자의 위치 및 시점방향(사용자가 바라보고 있는 방향)에 따라, HMD를 통하여 출력될 가상영상의 시점을 조절할 수 있다. 바람직하게, HMD는 관성측정장치(IMU)를 구비할 수 있고, 영상 시점 조정부는 관성측정장치로부터 HMD의 방향, 속도, 및 가속도 등에 대한 정보를 제공받아 시점방향을 결정할 수 있다. 다른 실시예에서, 영상출력장치(110)가 현실공간에 설치된 프로젝터에 해당하는 경우에는, 영상 시점 조정부는 기설정된 위치 및 시점방향에 따라 프로젝터를 통하여 출력될 가상영상의 시점을 조절할 수 있다. 여기에서, 프로젝터를 통하여 출력되는 가상영상은 현실공간의 전면, 바닥, 좌측벽, 및 우측벽에 투사될 수 있다.In one embodiment, when the image output device 110 corresponds to a head mounted display (HMD) worn by at least one of the users located in the real space, the image viewpoint adjusting unit is a user wearing the HMD According to the position and the direction of the view (direction that the user is looking at), it is possible to adjust the viewpoint of the virtual image to be output through the HMD. Preferably, the HMD may include an inertial measurement device (IMU), and the image viewpoint adjustment unit may determine the viewpoint direction by receiving information about the direction, speed, and acceleration of the HMD from the inertial measurement device. In another embodiment, when the image output device 110 corresponds to a projector installed in a real space, the image viewpoint adjusting unit may adjust a viewpoint of a virtual image to be output through the projector according to a preset position and a viewpoint direction. Here, the virtual image output through the projector can be projected on the front, bottom, left and right walls of the real space.

바람직하게, 상기에서 설명된 단계 S310 내지 단계 S340은 반복적으로 수행될 수 있다. 즉, 위치정보 획득부(210)는 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)를 통하여 지속적으로 획득된 정보에 따라 현실공간 내에 위치하고 있는 사용자의 인원 및 위치를 지속적으로 갱신하고, 위치 매칭부(220)는 갱신되는 인원 및 위치를 가상공간상에 매칭시키고, 영상 생성부(230)는 가상공간상에 매칭된 사용자의 인원 및 위치에 따라 가상영상 상의 가상객체의 개수 및 위치를 조정하여 가상영상을 생성하고, 영상 제공부(240)는 영상 시점 조정부를 통하여 시점이 조정된 가상영상을 각 영상출력장치(110)에 제공할 수 있는 것이다.Preferably, steps S310 to S340 described above may be repeatedly performed. That is, the location information acquisition unit 210 continuously maintains the number and location of users located in the real space according to the information continuously acquired through the laser device 130, the microphone device 140, or the image photographing device 150. , And the location matching unit 220 matches the updated person and location on the virtual space, and the image generation unit 230 displays the virtual object on the virtual image according to the number and location of the user matched on the virtual space. A virtual image is generated by adjusting the number and location, and the image providing unit 240 is capable of providing the virtual image whose viewpoint is adjusted through the image viewpoint adjusting unit to each image output device 110.

또한, 단계 S310 내지 단계 S340의 반복적인 수행에 따라 획득되는 데이터 및 영상은 저장될 수 있고, 본 발명에 따르면 저장된 데이터 및 영상을 제공함에 따라 새로운 사용자가 과거의 가상현실에 반영되어 유사한 경험을 체험할 수 있게 된다. 여기에서, 새로운 사용자가 과거의 가상현실에 반영되는 방법은 상기에서 설명된 방법이 동일하게 적용될 수 있다. 예를 들어, 역사 수업 컨텐츠의 경우에는 미리 구축해 놓은 공간 및 데이터에 학생과 선생님이 참가하여 체험할 수 있고, 콘서트 영상과 같은 컨텐츠의 경우에는 저장된 콘서트 영상에 새로운 사용자가 참가하여 그 현장을 경험할 수 있게 되는 것이다.In addition, data and images obtained according to the repetitive performance of steps S310 to S340 may be stored, and according to the present invention, as the stored data and images are provided, new users are reflected in the past virtual reality to experience a similar experience. I can do it. Here, the method described above can be applied to the method in which a new user is reflected in the past virtual reality. For example, in the case of history class content, students and teachers can participate and experience in the space and data that have been built in advance, and in the case of content such as concert video, new users can participate in the saved concert video to experience the scene. Will be.

따라서, 본 발명에 의하면, 각 사용자들의 현실공간에서의 위치가 가상영상에 반영되어 HMD로부터 출력되는 가상영상을 보는 사용자 및 프로젝터로부터 출력되는 가상영상을 보는 사용자가 해당 현실공간에 위치하고 있는 모든 사용자들의 위치를 가상영상 내에서 확인할 수 있으므로, 다수의 사용자들이 특정한 현실공간에서 동일한 가상영상을 보면서 서로간의 인터렉션 및 다양한 체험이 가능하도록 할 수 있다.Therefore, according to the present invention, the location of each user in the real space is reflected in the virtual image, and the user viewing the virtual image output from the HMD and the user viewing the virtual image output from the projector are all users located in the corresponding real space. Since the location can be confirmed within the virtual image, multiple users can interact with each other and experience various experiences while viewing the same virtual image in a specific real space.

한편, 본 발명의 일 실시예에 따른 영상 제어 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.Meanwhile, the image control method according to an embodiment of the present invention may also be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored.

예컨대, 컴퓨터가 읽을 수 있는 기록매체로는 롬(ROM), 램(RAM), 시디-롬(CD-ROM), 자기 테이프, 하드디스크, 플로피디스크, 이동식 저장장치, 비휘발성메모리(Flash Memory), 광 데이터 저장장치 등이 있다.For example, computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, hard disks, floppy disks, removable storage devices, and non-volatile memory (Flash Memory). , Optical data storage, and the like.

또한, 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.In addition, the computer-readable recording medium may be distributed over computer systems connected by a computer communication network, and stored and executed as code readable in a distributed manner.

전술한 본 발명에 따른 영상 제어 방법 및 서버에 대한 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명에 속한다.Although the preferred embodiments of the image control method and the server according to the present invention described above have been described, the present invention is not limited to this, and various modifications are made within the scope of the claims and detailed description of the invention and the accompanying drawings. Possible and this also belongs to the present invention.

100: 영상 제어 시스템
110: 영상출력장치
120: 영상 제어 서버
130: 레이저 장치
140: 마이크 장치
150: 영상촬영장치
210: 위치정보 획득부
220: 위치 매칭부
230: 영상 생성부
240: 영상 제공부
100: video control system
110: video output device
120: video control server
130: laser device
140: microphone device
150: video recording apparatus
210: location information acquisition unit
220: position matching unit
230: image generation unit
240: video providing unit

Claims (12)

(a) 현실공간에 위치하고 있는 헤드마운티드 디스플레이(HMD)를 착용한 적어도 하나의 사용자와 HMD를 미착용한 사용자의 위치정보를 현실공간의 특정 벽면을 기초로 거리별로 획득하는 단계;
(b) 상기 각 사용자에 대한 위치좌표와 가상공간의 위치좌표를 매칭시켜 상기 각 사용자의 가상공간 상의 위치를 결정하는 단계;
(c) 상기 가상공간에 매칭된 상기 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 상기 가상공간에 대한 가상영상을 생성하고, 영상출력장치에 제공될 가상영상의 시점을 조정하는 단계; 및
(d) 상기 생성된 가상영상을 상기 HMD 및 현실공간에 가상영상을 출력시키기 위한 프로젝터에 제공하는 단계를 포함하는 영상 제어 방법으로서,
상기 (c) 단계는,
상기 HMD에는, 상기 HMD를 착용하고 있는 사용자의 위치 및 시점방향에 따라 상기 HMD를 통하여 출력될 가상영상의 시점을 조절하고,
상기 프로젝터에는, 위치정보 획득부가 사용자의 위치를 획득하기 위한 현실공간의 특정 벽면 위치에서 상기 현실공간의 전면, 바닥, 좌측, 및 우측에 가상영상을 출력될 가상영상의 시점을 조절하는 단계인 것을 특징으로 하는 영상 제어 방법.
(a) obtaining location information of at least one user wearing a head mounted display (HMD) located in the real space and a user without the HMD for each distance based on a specific wall surface of the real space;
(b) determining a location on each user's virtual space by matching the location coordinates for each user with the location coordinates of the virtual space;
(c) generating a virtual image for the virtual space by displaying a virtual object associated with each user at a location of the user matched with the virtual space, and adjusting a viewpoint of the virtual image to be provided to the image output device; And
(d) providing the generated virtual image to the HMD and a projector for outputting the virtual image to the real space, wherein the image control method comprises:
Step (c) is,
In the HMD, a viewpoint of a virtual image to be output through the HMD is adjusted according to a position and a viewpoint direction of a user wearing the HMD,
In the projector, the location information acquiring unit is a step of adjusting a viewpoint of a virtual image to be displayed on the front, bottom, left, and right sides of the real space at a specific wall position in the real space for acquiring the user's location. Characterized image control method.
제1항에 있어서, 상기 (a) 단계는
상기 현실공간에 배치된 레이저 장치, 마이크 장치, 또는 영상촬영장치로부터 상기 사용자의 위치에 대한 정보를 획득하여, 각 사용자에 대한 위치좌표를 산출하는 단계를 포함하는 것을 특징으로 하는 영상 제어 방법.
The method of claim 1, wherein step (a) is
And obtaining information on the location of the user from a laser device, a microphone device, or an image capturing device disposed in the real space, and calculating position coordinates for each user.
삭제delete 삭제delete 삭제delete 현실공간에 위치하고 있는 헤드마운티드 디스플레이(HMD)를 착용한 적어도 하나의 사용자와 HMD를 미착용한 사용자의 위치정보를 현실공간의 특정 벽면을 기초로 거리별로 획득하는 위치정보 획득부;
상기 각 사용자에 대한 위치좌표와 가상공간의 위치좌표를 매칭시켜 상기 각 사용자의 가상공간 상의 위치를 결정하는 위치 매칭부;
상기 가상공간에 매칭된 상기 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 상기 가상공간에 대한 가상영상을 생성하는 영상 생성부;
영상출력장치에 제공될 가상영상의 시점을 조정하는 영상 시점 조정부; 및
상기 생성된 가상영상을 상기 HMD 및 현실공간에 가상영상을 출력시키기 위한 프로젝터에 제공하는 영상 제공부를 포함하는 영상 제어 서버로서,
상기 영상 시점 조정부는,
상기 HMD에는, 상기 HMD를 착용하고 있는 사용자의 위치 및 시점방향에 따라 상기 HMD를 통하여 출력될 가상영상의 시점을 조절하고,
상기 프로젝터에는, 위치정보 획득부가 사용자의 위치를 획득하기 위한 현실공간의 특정 벽면 위치에서 상기 현실공간의 전면, 바닥, 좌측, 및 우측에 가상영상을 출력될 가상영상의 시점을 조절하는 것을 특징으로 하는 영상 제어 서버.
A location information acquiring unit for acquiring location information of at least one user wearing a head mounted display (HMD) located in a real space and a user not wearing an HMD for each distance based on a specific wall surface of the real space;
A location matching unit that matches a location coordinate for each user with a location coordinate in a virtual space to determine a location on each user's virtual space;
An image generation unit that displays a virtual object associated with each user at a location of the user matched with the virtual space to generate a virtual image for the virtual space;
An image viewpoint adjusting unit that adjusts a viewpoint of a virtual image to be provided to the image output device; And
An image control server including an image providing unit that provides the generated virtual image to the HMD and a projector for outputting the virtual image to the real space,
The video viewpoint adjustment unit,
In the HMD, a viewpoint of a virtual image to be output through the HMD is adjusted according to a position and a viewpoint direction of a user wearing the HMD,
In the projector, the location information acquisition unit adjusts a viewpoint of a virtual image to be displayed on the front, bottom, left, and right sides of the real space at a specific wall position in the real space for acquiring the user's location. Video control server.
제6항에 있어서, 상기 위치정보 획득부는
상기 현실공간에 배치된 레이저 장치, 마이크 장치, 또는 영상촬영장치로부터 상기 사용자의 위치에 대한 정보를 획득하여, 각 사용자에 대한 위치좌표를 산출하는 것을 특징으로 하는 영상 제어 서버.
The method of claim 6, wherein the location information acquisition unit
Image control server, characterized in that for obtaining the information about the location of the user from a laser device, a microphone device, or an image capture device disposed in the real space, to calculate the position coordinates for each user.
삭제delete 삭제delete 삭제delete 삭제delete 제1항 또는 제2항의 방법을 컴퓨터로 실행시킬 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording a program capable of executing the method of claim 1 or 2 with a computer.
KR1020180064838A 2017-06-30 2018-06-05 Method and server for controlling video KR102094772B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170083128 2017-06-30
KR20170083128 2017-06-30

Publications (2)

Publication Number Publication Date
KR20190003339A KR20190003339A (en) 2019-01-09
KR102094772B1 true KR102094772B1 (en) 2020-04-23

Family

ID=65017521

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180064838A KR102094772B1 (en) 2017-06-30 2018-06-05 Method and server for controlling video

Country Status (1)

Country Link
KR (1) KR102094772B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120013021A (en) 2010-08-04 2012-02-14 주식회사 자이닉스 A method and apparatus for interactive virtual reality services
KR101788046B1 (en) * 2010-11-03 2017-10-19 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR101544957B1 (en) * 2013-11-28 2015-08-19 한국과학기술연구원 Laser-guided head mounted display for augmented reality and method thereof
KR20140082610A (en) * 2014-05-20 2014-07-02 (주)비투지 Method and apaaratus for augmented exhibition contents in portable terminal

Also Published As

Publication number Publication date
KR20190003339A (en) 2019-01-09

Similar Documents

Publication Publication Date Title
US10990342B2 (en) Multi-viewpoint switched shooting system and method
US11978175B2 (en) Mixed reality system with color virtual content warping and method of generating virtual content using same
US11361513B2 (en) Head-mounted display with pass-through imaging
US11151790B2 (en) Method and device for adjusting virtual reality image
US9846968B2 (en) Holographic bird's eye view camera
KR101730737B1 (en) Distance adaptive holographic displaying method and device based on eyeball tracking
US10293252B2 (en) Image processing device, system and method based on position detection
US8743187B2 (en) Three-dimensional (3D) imaging based on MotionParallax
KR102359978B1 (en) Mixed reality system with multi-source virtual content synthesis and method for creating virtual content using same
KR100542370B1 (en) Vision-based augmented reality system using invisible marker
US20060050070A1 (en) Information processing apparatus and method for presenting image combined with virtual image
CN105611267B (en) Merging of real world and virtual world images based on depth and chrominance information
WO2014108799A2 (en) Apparatus and methods of real time presenting 3d visual effects with stereopsis more realistically and substract reality with external display(s)
CN110969706B (en) Augmented reality device, image processing method, system and storage medium thereof
KR102094772B1 (en) Method and server for controlling video
WO2012131862A1 (en) Image-processing device, method, and program
US20180278902A1 (en) Projection device, content determination device and projection method
JP2018067300A (en) Information processing apparatus and control method thereof
KR102052026B1 (en) Hologram projection device and method thereof
KR101860215B1 (en) Content Display System and Method based on Projector Position
JP2022051977A (en) Information processing device, information processing method, and program
KR20180050126A (en) Method for providing Binocular Augmented Reality

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant