KR102094772B1 - Method and server for controlling video - Google Patents
Method and server for controlling video Download PDFInfo
- Publication number
- KR102094772B1 KR102094772B1 KR1020180064838A KR20180064838A KR102094772B1 KR 102094772 B1 KR102094772 B1 KR 102094772B1 KR 1020180064838 A KR1020180064838 A KR 1020180064838A KR 20180064838 A KR20180064838 A KR 20180064838A KR 102094772 B1 KR102094772 B1 KR 102094772B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- image
- location
- virtual
- real space
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/30—Clipping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/307—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0185—Displaying image at variable distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 영상 제어 방법으로서, (a) 현실공간에 위치하고 있는 사용자의 위치정보를 획득하는 단계; (b) 상기 위치정보를 기초로, 상기 현실공간에 대응되도록 생성된 가상공간에 상기 사용자의 위치를 매칭시키는 단계; (c) 상기 가상공간에 매칭된 상기 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 상기 가상공간에 대한 가상영상을 생성하는 단계; 및 (d) 상기 생성된 가상영상을 영상출력장치에 제공하는 단계를 포함한다.The present invention is an image control method, comprising: (a) obtaining location information of a user located in a real space; (b) matching the location of the user to a virtual space created to correspond to the real space based on the location information; (c) generating a virtual image for the virtual space by displaying a virtual object associated with each user at the location of the user matched with the virtual space; And (d) providing the generated virtual image to the image output device.
Description
본 발명은 영상 제어 기술에 관한 것으로서, 타기종의 가상현실 기기 간에 출력되는 영상을 동기화 하고, 가상현실 기기를 착용하고 있는 사용자가 실제로 위치하고 있는 현실공간의 위치를 반영하는 영상 제어 방법 및 서버에 관한 것이다.The present invention relates to an image control technology, and relates to an image control method and a server that synchronizes the images output between different types of virtual reality devices and reflects the location of the real space in which the user wearing the virtual reality device is actually located. will be.
현재의 가상현실(Virtual Reality, VR) 영상을 제공하는 기기들의 경우 타 기종간에 같은 가상공간을 공유하기가 매우 어렵고, 헤드 마운티드 디스플레이(Head Mounted Display, HMD)와 같은 가상현실 영상을 제공하는 기기를 착용하고 있는 사용자들의 현실 공간에서의 위치와 가상현실 영상 안에서의 위치가 동기화되지 못하는 문제가 있어 사용자들 간의 충돌과 같은 위험한 상황이 발생하는 문제가 있다. 따라서, 다수의 인원이 동일한 공간 안에서 가상현실 컨텐츠를 체험하는 경우에 다수의 인원이 보고 있는 가상현실 영상의 동기화가 필요하고 가상현실 영상 내에서의 체험이 실제로도 반영이 되도록 하는 것이 필요하다.In the case of devices that provide virtual reality (VR) images, it is very difficult to share the same virtual space between different models, and devices that provide virtual reality images such as a head mounted display (HMD) There is a problem in that the location of the users wearing in the real space and the location in the virtual reality image are not synchronized, and thus a dangerous situation such as collision between users occurs. Therefore, when a plurality of people experience virtual reality content in the same space, it is necessary to synchronize the virtual reality images viewed by a plurality of people and to ensure that the experiences in the virtual reality images are actually reflected.
본 발명의 목적은 현실공간에 배치된 레이저, 마이크, 또는 영상촬영장치로부터 획득되는 데이터를 기초로 각 사용자들의 위치를 획득하여 가상공간에 대한 가상영상에 반영하고, 해당 가상영상을 사용자가 착용하고 있는 헤드 마운티드 디스플레이 또는 현실공간에 설치된 프로젝터에 제공하여, 헤드 마운티드 디스플레이를 착용하고 있는 사용자 및 착용하고 있지 않은 사용자 모두가 동일한 가상영상에 대한 체험이 가능하도록 하는 영상 제어 방법 및 서버를 제공하는데 있다. The object of the present invention is to acquire the location of each user based on data obtained from a laser, microphone, or image capture device disposed in a real space, reflect it in the virtual image of the virtual space, and wear the corresponding virtual image by the user It is to provide an image control method and a server to provide a head mounted display or a projector installed in a real space, so that both a user wearing a head mounted display and a user not wearing the head can experience the same virtual image.
상기 목적을 달성하기 위한 본 발명의 제1 측면은, 영상 제어 방법으로서, (a) 현실공간에 위치하고 있는 사용자의 위치정보를 획득하는 단계; (b) 상기 위치정보를 기초로, 상기 현실공간에 대응되도록 생성된 가상공간에 상기 사용자의 위치를 매칭시키는 단계; (c) 상기 가상공간에 매칭된 상기 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 상기 가상공간에 대한 가상영상을 생성하는 단계; 및 (d) 상기 생성된 가상영상을 영상출력장치에 제공하는 단계를 포함한다.A first aspect of the present invention for achieving the above object is an image control method comprising: (a) obtaining location information of a user located in a real space; (b) matching the location of the user to a virtual space created to correspond to the real space based on the location information; (c) generating a virtual image for the virtual space by displaying a virtual object associated with each user at the location of the user matched with the virtual space; And (d) providing the generated virtual image to the image output device.
바람직하게, 상기 (a) 단계는 상기 현실공간에 배치된 레이저 장치, 마이크 장치, 또는 영상촬영장치로부터 상기 사용자의 위치에 대한 정보를 획득하여, 각 사용자에 대한 위치좌표를 산출하는 단계를 포함할 수 있다.Preferably, the step (a) may include obtaining information about the location of the user from a laser device, a microphone device, or an imaging device disposed in the real space, and calculating position coordinates for each user. You can.
바람직하게, 상기 (b) 단계는 상기 각 사용자에 대한 위치좌표와 상기 가상공간의 위치좌표를 매칭시켜 상기 각 사용자의 가상공간 상의 위치를 결정하는 단계를 포함할 수 있다.Preferably, the step (b) may include determining a location on each user's virtual space by matching the location coordinates for each user with the location coordinates of the virtual space.
바람직하게, 상기 (d) 단계는 상기 영상출력장치가, 상기 사용자 중 적어도 하나의 사용자가 착용하고 있는 헤드마운티드 디스플레이에 해당하는 경우에는, 상기 헤드마운티드 디스플레이를 착용하고 있는 사용자의 위치 및 시점에 따라, 상기 헤드마운티드 디스플레이를 통하여 출력될 가상영상의 시점을 조절하는 단계를 더 포함할 수 있다.Preferably, in step (d), if the video output device corresponds to a head mounted display worn by at least one of the users, depending on the location and viewpoint of the user wearing the head mounted display, And, it may further include the step of adjusting the viewpoint of the virtual image to be output through the head-mounted display.
바람직하게, 상기 (d) 단계는 상기 영상출력장치가, 상기 현실공간에 가상영상을 출력시키기 위한 프로젝터에 해당하는 경우에는, 기설정된 시점방향에 따라 상기 프로젝터를 통하여 출력될 가상영상의 시점을 조절하는 단계를 더 포함하되, 상기 프로젝터는 상기 현실공간의 전면, 바닥, 좌측, 및 우측에 가상영상을 출력할 수 있다.Preferably, in step (d), when the image output device corresponds to a projector for outputting a virtual image to the real space, the viewpoint of the virtual image to be output through the projector is adjusted according to a preset viewpoint direction. The method may further include, but the projector may output a virtual image on the front, bottom, left, and right sides of the real space.
상기 목적을 달성하기 위한 본 발명의 제2 측면은, 영상 제어 서버로서, 현실공간에 위치하고 있는 사용자의 위치정보를 획득하는 위치정보 획득부; 상기 위치정보를 기초로, 상기 현실공간에 대응되도록 생성된 가상공간에 상기 사용자의 위치를 매칭시키는 위치 매칭부; 상기 가상공간에 매칭된 상기 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 상기 가상공간에 대한 가상영상을 생성하는 영상 생성부; 및 상기 생성된 가상영상을 영상출력장치에 제공하는 영상 제공부를 포함한다.A second aspect of the present invention for achieving the above object is an image control server, a location information acquisition unit for acquiring location information of a user located in a real space; A location matching unit matching the user's location to a virtual space generated to correspond to the real space based on the location information; An image generation unit that displays a virtual object associated with each user at a location of the user matched with the virtual space to generate a virtual image for the virtual space; And an image providing unit that provides the generated virtual image to the image output device.
바람직하게, 상기 위치정보 획득부는 상기 현실공간에 배치된 레이저 장치, 마이크 장치, 또는 영상촬영장치로부터 상기 사용자의 위치에 대한 정보를 획득하여, 각 사용자에 대한 위치좌표를 산출할 수 있다.Preferably, the location information acquiring unit may obtain information about the location of the user from a laser device, a microphone device, or an imaging device disposed in the real space, and calculate position coordinates for each user.
바람직하게, 상기 위치 매칭부는 상기 각 사용자에 대한 위치좌표와 상기 가상공간의 위치좌표를 매칭시켜 상기 각 사용자의 가상공간 상의 위치를 결정할 수 있다.Preferably, the location matching unit may determine a location on each user's virtual space by matching the location coordinates for each user with the location coordinates of the virtual space.
바람직하게, 상기 영상출력장치에 제공될 가상영상의 시점을 조정하는 영상 시점 조정부를 더 포함할 수 있다.Preferably, it may further include an image viewpoint adjustment unit for adjusting the viewpoint of the virtual image to be provided to the image output device.
바람직하게, 상기 영상 시점 조정부는 상기 영상출력장치가, 상기 사용자 중 적어도 하나의 사용자가 착용하고 있는 헤드마운티드 디스플레이에 해당하는 경우에는, 상기 헤드마운티드 디스플레이를 착용하고 있는 사용자의 위치 및 시점에 따라, 상기 헤드마운티드 디스플레이를 통하여 출력될 가상영상의 시점을 조절할 수 있다.Preferably, when the image viewing unit adjusts the video output device to a head mounted display worn by at least one of the users, according to the position and viewpoint of the user wearing the head mounted display, The viewpoint of the virtual image to be output may be adjusted through the head mounted display.
바람직하게, 상기 영상 시점 조정부는 상기 영상출력장치가, 상기 현실공간에 가상영상을 출력시키기 위한 프로젝터에 해당하는 경우에는, 기설정된 시점방향에 따라 상기 프로젝터를 통하여 출력될 가상영상의 시점을 조절하되, 상기 프로젝터는 상기 현실공간의 전면, 바닥, 좌측, 및 우측에 가상영상을 출력할 수 있다.Preferably, the image viewpoint adjusting unit adjusts the viewpoint of the virtual image to be output through the projector according to a preset viewpoint direction when the image output device corresponds to a projector for outputting a virtual image to the real space. , The projector may output virtual images on the front, bottom, left, and right sides of the real space.
상기한 바와 같이 본 발명에 의하면, 가상영상을 출력하는 기기의 종류에 상관없이 동일한 가상영상을 공유할 수 있고, 현실공간과 가상영상 내에서의 사용자의 위치를 동기화시키므로, 동일한 공간안에서 다수의 사용자들이 가상영상을 이용한 체험을 수행하는 경우에 사용자들 간의 인터랙션 및 현실공간 과의 인터랙션이 가능한 효과가 있다.As described above, according to the present invention, since the same virtual image can be shared regardless of the type of the device outputting the virtual image, and the user's position in the virtual space is synchronized with the real space, multiple users in the same space When they perform an experience using virtual images, there is an effect capable of interaction between users and interaction with a real space.
도 1은 본 발명의 바람직한 실시예에 따른 영상 제어 시스템에 대한 구성도이다.
도 2는 일 실시예에 따른 영상 제어 서버에 대한 블록도이다.
도 3은 일 실시예에 따른 영상 제어 방법을 나타내는 흐름도이다.1 is a block diagram of an image control system according to a preferred embodiment of the present invention.
2 is a block diagram of an image control server according to an embodiment.
3 is a flowchart illustrating an image control method according to an embodiment.
이하, 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. "및/또는"은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다.Hereinafter, advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and the ordinary knowledge in the technical field to which the present invention pertains. It is provided to fully inform the holder of the scope of the invention, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification. “And / or” includes each and every combination of one or more of the items mentioned.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, components and / or sections, it goes without saying that these elements, components and / or sections are not limited by these terms. These terms are only used to distinguish one element, component or section from another element, component or section. Accordingly, it goes without saying that the first element, the first component or the first section mentioned below may be the second element, the second component or the second section within the technical spirit of the present invention.
또한, 각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, in each step, an identification code (for example, a, b, c, etc.) is used for convenience of explanation, and the identification code does not describe the order of each step, and each step is clearly specified in context. Unless the order is specified, it may occur differently from the order specified. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 “포함한다(comprises)" 및/또는 “포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, “comprises” and / or “comprising” refers to the components, steps, operations and / or elements mentioned above, the presence of one or more other components, steps, operations and / or elements. Or do not exclude additions.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless specifically defined.
또한, 본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, in describing embodiments of the present invention, when it is determined that a detailed description of known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to a user's or operator's intention or practice. Therefore, the definition should be made based on the contents throughout this specification.
도 1은 본 발명의 바람직한 실시예에 따른 영상 제어 시스템에 대한 구성도이다.1 is a block diagram of an image control system according to a preferred embodiment of the present invention.
도 1을 참조하면, 영상 제어 시스템(100)은 영상출력장치(110), 영상 제어 서버(120), 레이저 장치(130), 마이크 장치(140), 영상촬영장치(150)를 포함한다.Referring to FIG. 1, the
영상출력장치(110)는 가상공간에 대한 가상현실 영상인 가상영상을 출력하는 장치이다. 바람직하게, 영상출력장치(110)는 사용자가 직접 착용 가능한 형태의 기기, 예를 들어, 헤드 마운티드 디스플레이(HMD)일 수 있고, 가상영상을 출력할 수 있는 기기, 예를 들어, 프로젝터, PC, 모바일 단말일 수 있다. 여기에서, 영상출력장치(110)는 제한된 특정한 현실공간 내에 위치되고, 그 개수에는 제한이 없다.The
영상 제어 서버(120)는 가상영상을 생성하여 제공하는 장치이다. 바람직하게, 영상 제어 서버(120)는 각 영상출력장치(110), 레이저 장치(130), 마이크 장치(140), 영상촬영장치(150)와 연결되어, 동일한 현실공간 내에 위치하고 있는 사용자들의 위치를 반영한 가상영상을 생성하고, 생성된 가상영상을 각 영상출력장치(110)에 제공할 수 있다. The
레이저 장치(130), 마이크 장치(140), 및 영상촬영장치(150) 각각은 현실공간에 설치되고, 현실공간에 위치하고 있는 각 사용자의 위치를 결정하기 위한 정보를 획득하여 영상 제어 서버(120)에 제공한다. 바람직하게, 레이저 장치(130), 마이크 장치(140), 및 영상촬영장치(150) 중 적어도 한 종류의 장치만이 현실공간에 배치될 수도 있고, 현실공간에 배치되는 해당 장치의 개수에는 제한이 없다. Each of the
도 2는 일 실시예에 따른 영상 제어 서버에 대한 블록도이다.2 is a block diagram of an image control server according to an embodiment.
도 2를 참조하면, 영상 제어 서버(120)는 위치정보 획득부(210), 위치 매칭부(220), 영상 생성부(230), 영상 제공부(240), 및 제어부(250)를 포함한다. 제어부(250)는 위치정보 획득부(210), 위치 매칭부(220), 영상 생성부(230), 및 영상 제공부(240)의 동작 및 데이터의 흐름을 제어한다. 이하에서는, 도 3을 참조하여, 영상 제어 서버(120)에서 수행되는 영상 제어 방법에 대하여 보다 구체적으로 설명한다.Referring to FIG. 2, the
본 발명에 따른 영상 제어 방법은, 제한된 공간인 특정한 현실공간에 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)가 설치되어 있고, 해당 현실공간의 벽면에 가상영상을 투사하기 위한 영상출력장치(예를 들어, 프로젝터)가 설치되어 있고, 가사영상을 출력하는 영상출력장치(예를 들어, HMD)를 착용하고 있는 사용자 및 착용하고 있지 않은 사용자가 해당 현실공간에 위치하고 있는 환경에서 수행된다. In the image control method according to the present invention, a
먼저, 영상 제어 서버(120)는 특정한 현실공간에 대응되는 가상공간을 구축하고, 가상공간에 대한 가상영상을 생성하여 영상출력장치(110)에 제공한다. First, the
도 3을 참조하면, 위치정보 획득부(210)는 현실공간에 위치하고 있는 사용자의 위치정보를 획득한다(단계 S310). 바람직하게, 위치정보 획득부(210)는 현실공간에 배치된 레이저 장치(130) 또는 마이크 장치(140)로부터 각 사용자까지의 거리 및 방위각에 대한 정보, 또는 영상촬영장치(150)로부터 깊이값, 및 영상에서의 컴퓨터 비전 데이터에 대한 정보를 획득하여 현실공간에 위치하고 있는 사용자의 인원 및 위치를 결정할 수 있다. Referring to FIG. 3, the location
보다 구체적으로, 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150) 각각의 신호원으로부터 발생된 신호가 목표물에 해당하는 사용자로부터 반사되어오면, 위치정보 획득부(210)는 반사된 신호의 위상변화값을 기초로 신호를 발생시킨 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)와 사용자간의 거리를 측정한다. 여기에는 TOF(Time of Flight) 방식이 이용될 수 있다. 그 다음, 위치 정보 획득부(210)는 측정된 거리와 신호를 발생시킨 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)가 설치된 위치에서의 방위각을 기초로 삼각측량(triangulation) 방식을 이용하여 사용자의 위치를 결정할 수 있다.More specifically, when the signal generated from the signal source of each of the
또는, 위치정보 획득부(210)는 현실공간의 XYZ 평면에 각각 위치하고 있는 복수의 영상촬영장치(150)로부터 획득된 영상들로부터 깊이값을 획득하고, 정지(still)화면들의 RGB값을 획득한다. 여기에서, 영상촬영장치(150)는 깊이카메라(Depth camera)에 해당할 수 있다. 그 다음, 위치정보 획득부(210)는 깊이값, RGB값, 기설정된 화면 내의 기준점, 영상촬영장치(150)의 화각을 기초로 사용자의 위치를 결정할 수 있다. 즉, 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)가 설치되어 있는 위치는 미리 저장되어 있는바, 위치정보 획득부(210)는 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)의 위치와 그 각각의 장치로부터 사용자까지의 거리를 이용하여 특정 현실공간에서의 사용자의 위치를 결정할 수 있는 것이다.Alternatively, the location
여기에서는, 위치정보 획득부(210)가 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)로부터 획득된 정보를 제공받아 사용자의 위치를 결정하는 것으로 설명하였으나, 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)에서 직접 사용자의 위치가 결정될 수도 있고, 이 경우에는 위치정보 획득부(210)는 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)로부터 결정된 사용자의 위치를 제공받을 수 있다. 또한, 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150) 각각으로부터 획득된 정보를 기초로 사용자의 위치가 결정되거나, 이들 각각으로부터 획득된 정보를 조합하거나 또는 종합하여 사용자의 위치가 결정될 수 있으며, 사용자의 위치를 결정하는 방법은 여기에 제한되지 않는다.Here, it has been described that the location
바람직하게, 위치정보 획득부(210)는 사용자의 위치에 대한 정보들을 기초로 현실공간의 특정 벽면을 기초로 거리별로 사용자의 위치에 대한 정보를 필터링하여 사용자의 위치 및 인원을 최종적으로 결정할 수 있다.Preferably, the location
위치 매칭부(220)는 위치정보 획득부(210)를 통하여 결정된 위치정보를 기초로, 현실공간에 대응되도록 생성된 가상공간에 사용자의 위치를 매칭시킨다(단계 S320). 바람직하게, 위치 매칭부(220)는 각 사용자에 대한 위치좌표와 가상공간의 위치좌표를 매칭시켜 각 사용자의 가상공간 상의 위치를 결정할 수 있다.The
일 실시예에서, 영상 제어 서버(120)는 동작정보 획득부(도면에 도시하지 않음)를 포함할 수 있고, 동작정보 획득부는 현실공간에 위치한 사용자의 동작에 대한 정보를 획득한다. 바람직하게, 사용자가 착용하고 있는 영상출력장치(110)에 해당하는 헤드 마운티드 디스플레이는 착용자의 동작을 파악하는 동작인식장치를 구비할 수 있고, 동작정보 획득부는 동작인식장치로부터 헤드 마운티드 디스플레이를 착용하고 있는 사용자의 동작에 대한 정보를 획득할 수 있다. 또한, 동작정보 획득부는 헤드 마운티드 디스플레이를 착용하고 있는 사용자의 위치 및 방위각을 기초로 해당 착용자와 인터렉션하고 있는 사용자(HMD를 착용하지 않고 프로젝터를 통하여 출력되는 영상을 보고 있는 사용자)의 동작을 추측할 수 있다. 이에 더하여, 영상촬영장치(150)가 3D 카메라인 경우에는 영상촬영장치(150)를 통한 특정 현실공간의 3D 스캐닝이 가능하므로, 동작정보 획득부는 영상촬영장치(150)로부터 촬영된 3D 스캐닝 정보를 기초로 현실공간에 위치하고 있는 사용자의 동작정보를 획득할 수 있고, 레이저 장치(130)가 특정 개수 이상으로 현실공간에 설치되면 레이저 장치(130)를 통한 면적 단위의 스캔이 가능하므로, 동작정보 획득부는 레이저 장치(130)로부터 획득된 면적 단위의 스캔 정보를 기초로 특정 현실공간에 위치하고 있는 사용자의 동작정보를 획득할 수 있다.In one embodiment, the
영상 생성부(230)는 가상공간에 매칭된 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 가상공간에 대한 가상영상을 생성한다(단계 S330). 바람직하게, 영상 생성부(230)는 각 사용자의 현실공간에서의 위치와 가상영상 내에서의 위치를 동기화 하여 표시하고, 동작정보 획득부로부터 획득된 각 사용자의 동작과 가상객체의 동작을 동기화하여 표시할 수 있다.The
영상 제공부(240)는 생성된 가상영상을 영상출력장치에 제공한다(단계 S340). 바람직하게, 영상 제공부(240)를 통하여 가상영상을 제공하기 이전에, 영상 시점 조정부(도면에 도시되지 않음)는 영상출력장치(110)에 제공될 가상영상의 시점을 조정할 수 있다. 즉, 각 사용자의 위치좌표를 기초로 생성된 가상영상은, 제공될 영상출력장치(110)에 따라 시점이 조절된 후 제공되므로, 가상영상과 현실공간의 상태가 보다 정확하게 동기화될 수 있다.The
일 실시예에서, 영상출력장치(110)가 현실공간에 위치하고 있는 사용자 중 적어도 하나의 사용자가 착용하고 있는 헤드 마운티드 디스플레이(HMD)에 해당하는 경우에는, 영상 시점 조정부는 해당 HMD를 착용하고 있는 사용자의 위치 및 시점방향(사용자가 바라보고 있는 방향)에 따라, HMD를 통하여 출력될 가상영상의 시점을 조절할 수 있다. 바람직하게, HMD는 관성측정장치(IMU)를 구비할 수 있고, 영상 시점 조정부는 관성측정장치로부터 HMD의 방향, 속도, 및 가속도 등에 대한 정보를 제공받아 시점방향을 결정할 수 있다. 다른 실시예에서, 영상출력장치(110)가 현실공간에 설치된 프로젝터에 해당하는 경우에는, 영상 시점 조정부는 기설정된 위치 및 시점방향에 따라 프로젝터를 통하여 출력될 가상영상의 시점을 조절할 수 있다. 여기에서, 프로젝터를 통하여 출력되는 가상영상은 현실공간의 전면, 바닥, 좌측벽, 및 우측벽에 투사될 수 있다.In one embodiment, when the
바람직하게, 상기에서 설명된 단계 S310 내지 단계 S340은 반복적으로 수행될 수 있다. 즉, 위치정보 획득부(210)는 레이저 장치(130), 마이크 장치(140), 또는 영상촬영장치(150)를 통하여 지속적으로 획득된 정보에 따라 현실공간 내에 위치하고 있는 사용자의 인원 및 위치를 지속적으로 갱신하고, 위치 매칭부(220)는 갱신되는 인원 및 위치를 가상공간상에 매칭시키고, 영상 생성부(230)는 가상공간상에 매칭된 사용자의 인원 및 위치에 따라 가상영상 상의 가상객체의 개수 및 위치를 조정하여 가상영상을 생성하고, 영상 제공부(240)는 영상 시점 조정부를 통하여 시점이 조정된 가상영상을 각 영상출력장치(110)에 제공할 수 있는 것이다.Preferably, steps S310 to S340 described above may be repeatedly performed. That is, the location
또한, 단계 S310 내지 단계 S340의 반복적인 수행에 따라 획득되는 데이터 및 영상은 저장될 수 있고, 본 발명에 따르면 저장된 데이터 및 영상을 제공함에 따라 새로운 사용자가 과거의 가상현실에 반영되어 유사한 경험을 체험할 수 있게 된다. 여기에서, 새로운 사용자가 과거의 가상현실에 반영되는 방법은 상기에서 설명된 방법이 동일하게 적용될 수 있다. 예를 들어, 역사 수업 컨텐츠의 경우에는 미리 구축해 놓은 공간 및 데이터에 학생과 선생님이 참가하여 체험할 수 있고, 콘서트 영상과 같은 컨텐츠의 경우에는 저장된 콘서트 영상에 새로운 사용자가 참가하여 그 현장을 경험할 수 있게 되는 것이다.In addition, data and images obtained according to the repetitive performance of steps S310 to S340 may be stored, and according to the present invention, as the stored data and images are provided, new users are reflected in the past virtual reality to experience a similar experience. I can do it. Here, the method described above can be applied to the method in which a new user is reflected in the past virtual reality. For example, in the case of history class content, students and teachers can participate and experience in the space and data that have been built in advance, and in the case of content such as concert video, new users can participate in the saved concert video to experience the scene. Will be.
따라서, 본 발명에 의하면, 각 사용자들의 현실공간에서의 위치가 가상영상에 반영되어 HMD로부터 출력되는 가상영상을 보는 사용자 및 프로젝터로부터 출력되는 가상영상을 보는 사용자가 해당 현실공간에 위치하고 있는 모든 사용자들의 위치를 가상영상 내에서 확인할 수 있으므로, 다수의 사용자들이 특정한 현실공간에서 동일한 가상영상을 보면서 서로간의 인터렉션 및 다양한 체험이 가능하도록 할 수 있다.Therefore, according to the present invention, the location of each user in the real space is reflected in the virtual image, and the user viewing the virtual image output from the HMD and the user viewing the virtual image output from the projector are all users located in the corresponding real space. Since the location can be confirmed within the virtual image, multiple users can interact with each other and experience various experiences while viewing the same virtual image in a specific real space.
한편, 본 발명의 일 실시예에 따른 영상 제어 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.Meanwhile, the image control method according to an embodiment of the present invention may also be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored.
예컨대, 컴퓨터가 읽을 수 있는 기록매체로는 롬(ROM), 램(RAM), 시디-롬(CD-ROM), 자기 테이프, 하드디스크, 플로피디스크, 이동식 저장장치, 비휘발성메모리(Flash Memory), 광 데이터 저장장치 등이 있다.For example, computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, hard disks, floppy disks, removable storage devices, and non-volatile memory (Flash Memory). , Optical data storage, and the like.
또한, 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.In addition, the computer-readable recording medium may be distributed over computer systems connected by a computer communication network, and stored and executed as code readable in a distributed manner.
전술한 본 발명에 따른 영상 제어 방법 및 서버에 대한 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명에 속한다.Although the preferred embodiments of the image control method and the server according to the present invention described above have been described, the present invention is not limited to this, and various modifications are made within the scope of the claims and detailed description of the invention and the accompanying drawings. Possible and this also belongs to the present invention.
100: 영상 제어 시스템
110: 영상출력장치
120: 영상 제어 서버
130: 레이저 장치
140: 마이크 장치
150: 영상촬영장치
210: 위치정보 획득부
220: 위치 매칭부
230: 영상 생성부
240: 영상 제공부100: video control system
110: video output device
120: video control server
130: laser device
140: microphone device
150: video recording apparatus
210: location information acquisition unit
220: position matching unit
230: image generation unit
240: video providing unit
Claims (12)
(b) 상기 각 사용자에 대한 위치좌표와 가상공간의 위치좌표를 매칭시켜 상기 각 사용자의 가상공간 상의 위치를 결정하는 단계;
(c) 상기 가상공간에 매칭된 상기 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 상기 가상공간에 대한 가상영상을 생성하고, 영상출력장치에 제공될 가상영상의 시점을 조정하는 단계; 및
(d) 상기 생성된 가상영상을 상기 HMD 및 현실공간에 가상영상을 출력시키기 위한 프로젝터에 제공하는 단계를 포함하는 영상 제어 방법으로서,
상기 (c) 단계는,
상기 HMD에는, 상기 HMD를 착용하고 있는 사용자의 위치 및 시점방향에 따라 상기 HMD를 통하여 출력될 가상영상의 시점을 조절하고,
상기 프로젝터에는, 위치정보 획득부가 사용자의 위치를 획득하기 위한 현실공간의 특정 벽면 위치에서 상기 현실공간의 전면, 바닥, 좌측, 및 우측에 가상영상을 출력될 가상영상의 시점을 조절하는 단계인 것을 특징으로 하는 영상 제어 방법.
(a) obtaining location information of at least one user wearing a head mounted display (HMD) located in the real space and a user without the HMD for each distance based on a specific wall surface of the real space;
(b) determining a location on each user's virtual space by matching the location coordinates for each user with the location coordinates of the virtual space;
(c) generating a virtual image for the virtual space by displaying a virtual object associated with each user at a location of the user matched with the virtual space, and adjusting a viewpoint of the virtual image to be provided to the image output device; And
(d) providing the generated virtual image to the HMD and a projector for outputting the virtual image to the real space, wherein the image control method comprises:
Step (c) is,
In the HMD, a viewpoint of a virtual image to be output through the HMD is adjusted according to a position and a viewpoint direction of a user wearing the HMD,
In the projector, the location information acquiring unit is a step of adjusting a viewpoint of a virtual image to be displayed on the front, bottom, left, and right sides of the real space at a specific wall position in the real space for acquiring the user's location. Characterized image control method.
상기 현실공간에 배치된 레이저 장치, 마이크 장치, 또는 영상촬영장치로부터 상기 사용자의 위치에 대한 정보를 획득하여, 각 사용자에 대한 위치좌표를 산출하는 단계를 포함하는 것을 특징으로 하는 영상 제어 방법.
The method of claim 1, wherein step (a) is
And obtaining information on the location of the user from a laser device, a microphone device, or an image capturing device disposed in the real space, and calculating position coordinates for each user.
상기 각 사용자에 대한 위치좌표와 가상공간의 위치좌표를 매칭시켜 상기 각 사용자의 가상공간 상의 위치를 결정하는 위치 매칭부;
상기 가상공간에 매칭된 상기 사용자의 위치에 각 사용자와 연관된 가상객체를 표시하여 상기 가상공간에 대한 가상영상을 생성하는 영상 생성부;
영상출력장치에 제공될 가상영상의 시점을 조정하는 영상 시점 조정부; 및
상기 생성된 가상영상을 상기 HMD 및 현실공간에 가상영상을 출력시키기 위한 프로젝터에 제공하는 영상 제공부를 포함하는 영상 제어 서버로서,
상기 영상 시점 조정부는,
상기 HMD에는, 상기 HMD를 착용하고 있는 사용자의 위치 및 시점방향에 따라 상기 HMD를 통하여 출력될 가상영상의 시점을 조절하고,
상기 프로젝터에는, 위치정보 획득부가 사용자의 위치를 획득하기 위한 현실공간의 특정 벽면 위치에서 상기 현실공간의 전면, 바닥, 좌측, 및 우측에 가상영상을 출력될 가상영상의 시점을 조절하는 것을 특징으로 하는 영상 제어 서버.
A location information acquiring unit for acquiring location information of at least one user wearing a head mounted display (HMD) located in a real space and a user not wearing an HMD for each distance based on a specific wall surface of the real space;
A location matching unit that matches a location coordinate for each user with a location coordinate in a virtual space to determine a location on each user's virtual space;
An image generation unit that displays a virtual object associated with each user at a location of the user matched with the virtual space to generate a virtual image for the virtual space;
An image viewpoint adjusting unit that adjusts a viewpoint of a virtual image to be provided to the image output device; And
An image control server including an image providing unit that provides the generated virtual image to the HMD and a projector for outputting the virtual image to the real space,
The video viewpoint adjustment unit,
In the HMD, a viewpoint of a virtual image to be output through the HMD is adjusted according to a position and a viewpoint direction of a user wearing the HMD,
In the projector, the location information acquisition unit adjusts a viewpoint of a virtual image to be displayed on the front, bottom, left, and right sides of the real space at a specific wall position in the real space for acquiring the user's location. Video control server.
상기 현실공간에 배치된 레이저 장치, 마이크 장치, 또는 영상촬영장치로부터 상기 사용자의 위치에 대한 정보를 획득하여, 각 사용자에 대한 위치좌표를 산출하는 것을 특징으로 하는 영상 제어 서버.
The method of claim 6, wherein the location information acquisition unit
Image control server, characterized in that for obtaining the information about the location of the user from a laser device, a microphone device, or an image capture device disposed in the real space, to calculate the position coordinates for each user.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170083128 | 2017-06-30 | ||
KR20170083128 | 2017-06-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190003339A KR20190003339A (en) | 2019-01-09 |
KR102094772B1 true KR102094772B1 (en) | 2020-04-23 |
Family
ID=65017521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180064838A KR102094772B1 (en) | 2017-06-30 | 2018-06-05 | Method and server for controlling video |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102094772B1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120013021A (en) | 2010-08-04 | 2012-02-14 | 주식회사 자이닉스 | A method and apparatus for interactive virtual reality services |
KR101788046B1 (en) * | 2010-11-03 | 2017-10-19 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
KR101544957B1 (en) * | 2013-11-28 | 2015-08-19 | 한국과학기술연구원 | Laser-guided head mounted display for augmented reality and method thereof |
KR20140082610A (en) * | 2014-05-20 | 2014-07-02 | (주)비투지 | Method and apaaratus for augmented exhibition contents in portable terminal |
-
2018
- 2018-06-05 KR KR1020180064838A patent/KR102094772B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20190003339A (en) | 2019-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10990342B2 (en) | Multi-viewpoint switched shooting system and method | |
US11978175B2 (en) | Mixed reality system with color virtual content warping and method of generating virtual content using same | |
US11361513B2 (en) | Head-mounted display with pass-through imaging | |
US11151790B2 (en) | Method and device for adjusting virtual reality image | |
US9846968B2 (en) | Holographic bird's eye view camera | |
KR101730737B1 (en) | Distance adaptive holographic displaying method and device based on eyeball tracking | |
US10293252B2 (en) | Image processing device, system and method based on position detection | |
US8743187B2 (en) | Three-dimensional (3D) imaging based on MotionParallax | |
KR102359978B1 (en) | Mixed reality system with multi-source virtual content synthesis and method for creating virtual content using same | |
KR100542370B1 (en) | Vision-based augmented reality system using invisible marker | |
US20060050070A1 (en) | Information processing apparatus and method for presenting image combined with virtual image | |
CN105611267B (en) | Merging of real world and virtual world images based on depth and chrominance information | |
WO2014108799A2 (en) | Apparatus and methods of real time presenting 3d visual effects with stereopsis more realistically and substract reality with external display(s) | |
CN110969706B (en) | Augmented reality device, image processing method, system and storage medium thereof | |
KR102094772B1 (en) | Method and server for controlling video | |
WO2012131862A1 (en) | Image-processing device, method, and program | |
US20180278902A1 (en) | Projection device, content determination device and projection method | |
JP2018067300A (en) | Information processing apparatus and control method thereof | |
KR102052026B1 (en) | Hologram projection device and method thereof | |
KR101860215B1 (en) | Content Display System and Method based on Projector Position | |
JP2022051977A (en) | Information processing device, information processing method, and program | |
KR20180050126A (en) | Method for providing Binocular Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |