KR20190104720A - System for providing virtual reality image - Google Patents
System for providing virtual reality image Download PDFInfo
- Publication number
- KR20190104720A KR20190104720A KR1020180025168A KR20180025168A KR20190104720A KR 20190104720 A KR20190104720 A KR 20190104720A KR 1020180025168 A KR1020180025168 A KR 1020180025168A KR 20180025168 A KR20180025168 A KR 20180025168A KR 20190104720 A KR20190104720 A KR 20190104720A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- image
- display device
- pixel column
- viewpoint
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
본 발명은 VR 영상 제공 시스템에 관한 것으로서, 더 상세하게는 감지된 사용자의 움직임에 대응하는 VR 영상을 제공하는 시스템에 관한 것이다.The present invention relates to a VR image providing system, and more particularly, to a system for providing a VR image corresponding to a sensed movement of a user.
VR(Virtual Reality)은 인간의 모든 감각을 사용하여, 실제처럼 느낄 수 있는 통합된 경험을 지칭한다. 이러한 VR은 구현 기술에 따라 VE(Virtual Environment), AR(Augmented Reality), AV(Augmented Virtuality), SR(Substitutional Reality) 및 MR(Mixed Reality) 등으로 구분될 수 있다.VR (Virtual Reality) refers to an integrated experience that can feel like real life using all human senses. Such VRs may be classified into a virtual environment (VE), an augmented reality (AR), an augmented virtuality (AV), a substitutional reality (SR), a mixed reality (MR), and the like according to an implementation technology.
이러한 VR을 사용자에게 효과적으로 제공하기 위해서 머리 장착형 표시 장치(head mounted display(HMD) device) 등이 사용될 수 있으나, 특정 장비를 착용하지 않아도 여러 사람이 동일하게 현실 세계에서 가상의 현실을 체험할 수 있다.In order to effectively provide such VR to a user, a head mounted display (HMD) device or the like may be used, but many people may experience virtual reality in the real world without wearing specific equipment. .
한편, 최근에는 상기 평판표시장치를 응용한 곡면표시장치가 개발되고 있는데, 상기 곡면표시장치는 곡면의 형상을 갖는 표시 영역을 제공하여 사용자에게 입체감, 몰입감 및 임장감이 향상된 영상을 제공할 수 있다.Meanwhile, recently, a curved display device using the flat panel display device has been developed. The curved display device may provide a display area having a curved shape to provide an image having an improved stereoscopic feeling, immersion feeling, and a sense of presence to the user.
본 발명은 표시 장치가 사용자의 움직임에 대응하여 VR 영상을 표시하는 VR 영상 제공 시스템을 제공함에 그 목적이 있다.An object of the present invention is to provide a VR image providing system for displaying a VR image in response to the movement of the user.
전술한 목적을 달성하기 위하여, 본 발명의 사용자의 요청에 대응하여 서로 다른 복수의 VR 영상을 동시에 제공하는 표시 장치를 이용한 VR 영상 제공 시스템은, 상기 사용자로부터 제1 시점, 및 상기 제1 시점과 상이한 제2 시점을 입력받고, 사용자의 위치 정보를 저장하는 스마트 기기와, 상기 제1 시점에 대응하는 제1 VR 영상과 상기 제2 시점에 대응하는 제2 VR 영상을 표시하는 표시 장치와, 상기 스마트 기기로부터 제공된 상기 사용자의 위치 정보를 기초로 상기 표시 장치와 인접한 사용자의 움직임을 감지하는 사용자 감지 장치를 포함하고, 상기 표시 장치는 사용자와 가장 가깝게 위치한 상기 표시 장치의 화소열을 기준 화소열로 설정하고, 상기 기준 화소열의 일측에 위치한 제1 영역에 상기 제1 VR 영상을 표시하고, 타측에 위치한 제2 영역에 상기 제2 VR 영상을 표시하며, 상기 기준 화소열은 사용자의 움직임에 대응하여 상기 기준 화소열의 좌측 또는 우측에 위치한 화소열로 변경된다.In order to achieve the above object, a VR image providing system using a display device that simultaneously provides a plurality of different VR images in response to a request of a user of the present invention, the first view and the first view and A smart device that receives a different second viewpoint and stores location information of the user, a display device that displays a first VR image corresponding to the first viewpoint and a second VR image corresponding to the second viewpoint, and the And a user sensing device configured to detect a movement of a user adjacent to the display device based on the location information of the user provided from a smart device, wherein the display device uses a pixel column of the display device located closest to the user as a reference pixel column. And display the first VR image in a first region located on one side of the reference pixel column, and display the first VR image in the second region located on the other side. 2 displays a VR image and the reference pixel string is changed correspondingly to the user's motion in a pixel column on the left side or right side based on the pixel column.
본 발명의 다른 특징에 의하면, 상기 스마트 기기는 사용자로부터 상기 제1 및 제2 시점들에 관련된 장소 정보를 더 입력받으며, 상기 표시 장치는 상기 장소 정보를 기초로 상기 제1 시점 및 제1 장소와 관련된 상기 제1 VR 영상과, 상기 제2 시점 및 제2 장소와 관련된 상기 제2 VR 영상을 표시할 수 있다.According to another feature of the present invention, the smart device further receives place information related to the first and second viewpoints from a user, and the display device is further configured to be connected to the first viewpoint and the first place based on the place information. The first VR image associated with the second VR image associated with the second viewpoint and the second place may be displayed.
본 발명의 또 다른 특징에 의하면, 상기 제1 장소와 상기 제2 장소는 서로 상이하거나 동일한 위치일 수 있다.According to another feature of the invention, the first place and the second place may be different or the same location.
본 발명의 또 다른 특징에 의하면, 상기 제1 VR 영상과 상기 제2 VR 영상을 저장하는 저장 장치를 더 포함할 수 있다.According to another feature of the invention, the storage device for storing the first VR image and the second VR image may further include.
본 발명에 따른 VR 영상 제공 시스템에 의하면, 실시간으로 사용자의 움직임에 유동적으로 표시되는 VR 영상을 제공할 수 있다.According to the VR image providing system according to the present invention, it is possible to provide a VR image that is fluidly displayed in the user's movement in real time.
또한, 본 발명에 따른 VR 영상 제공 시스템에 의하면, 사용자가 원하는 복수의 시점들 및 이와 관련된 장소들에 관한 VR 영상을 동시에 제공할 수 있다.In addition, according to the VR image providing system according to the present invention, it is possible to simultaneously provide a VR image about a plurality of viewpoints and places associated with the user desired.
도 1은 본 발명의 실시 예에 따른 VR 영상 제공 시스템의 개략적인 블록도이다.
도 2a는 본 발명의 실시 예에 따른 VR 영상 제공 시스템의 사시도이다.
도 2b는 본 발명의 실시 예에 따른 VR 영상 제공 시스템의 평면도이다.
도 3a는 본 발명의 실시 예에 따른 VR 영상 제공 방법을 설명하기 위한 개념도이다.
도 3b는 본 발명의 실시 예에 따른 VR 영상 제공 방법을 설명하기 위한 개념도이다.1 is a schematic block diagram of a VR image providing system according to an exemplary embodiment of the present invention.
2A is a perspective view of a VR image providing system according to an exemplary embodiment of the present invention.
2B is a plan view of a VR image providing system according to an exemplary embodiment.
3A is a conceptual diagram illustrating a VR image providing method according to an exemplary embodiment of the present invention.
3B is a conceptual diagram illustrating a VR image providing method according to an exemplary embodiment of the present invention.
이하에서는 본 발명의 실시 예에 관하여 첨부도면을 참조하여 상세하게 설명하기로 한다. 다만, 이하에서 설명되는 실시 예는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명을 쉽게 실시할 수 있을 정도로 상세하게 설명하기 위한 것에 불과하며, 이로 인해 본 발명의 보호범위가 한정되는 것을 의미하지는 않는다. 그리고 본 발명의 여러 실시 예를 설명함에 있어서, 동일한 기술적 특징을 갖는 구성요소에 대하여는 동일한 도면부호를 사용하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments described below are merely to describe in detail enough to be able to easily carry out the invention by those skilled in the art, the scope of protection of the present invention is limited It does not mean. In describing the various embodiments of the present disclosure, the same reference numerals will be used to refer to elements having the same technical features.
도 1은 본 발명의 실시 예에 따른 VR 영상 제공 시스템의 개략적인 블록도이다.1 is a schematic block diagram of a VR image providing system according to an exemplary embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 VR 영상 제공 시스템(10)은 표시 장치(100), 사용자 감지 장치(120), 스마트 기기(110), 및 저장 장치(130)를 포함할 수 있다.Referring to FIG. 1, the VR
스마트 기기(110)는 입력 수단을 구비하며, 사용자의 위치정보를 계산할 수 있는 일련의 장치를 의미할 수 있다.The smart device 110 may include a series of devices provided with input means and capable of calculating location information of the user.
예컨대, 스마트 기기(110)는 스마트 폰(smart phone), 태블릿 (tablet) PC, 모바일 인터넷 장치(mobile internet device(MID)), 인터넷 태블릿, IoT(internet of things) 장치, IoE(internet of everything) 장치, 랩탑(laptop) 컴퓨터, 워크스테이션 컴퓨터, 또는 PDA (personal digital assistant), 웨어러블 장치(wearable device)를 의미할 수 있으나, 이에 한정되는 것은 아니다.For example, the smart device 110 may be a smart phone, a tablet PC, a mobile internet device (MID), an internet tablet, an internet of things (IoT) device, an internet of everything (IoE). A device, a laptop computer, a workstation computer, or a personal digital assistant (PDA) or a wearable device may be used, but is not limited thereto.
스마트 기기(110)가 사용자의 신체에 착용될 수 있는 형태의 웨어러블 디바이스로 구현된 경우, 스마트 기기(110)는 사용자의 움직임에 대응한 사용자의 위치를 정확하게 계산하여 사용자의 위치정보를 생성할 수 있다. 즉, 웨어러블 디바이스는 사용자의 신체에 부착된 상태로 위치를 계산하기 때문에 보다 정확하게 사용자의 위치정보를 생성할 수 있다.When the smart device 110 is implemented as a wearable device that can be worn on the user's body, the smart device 110 can generate the user's location information by accurately calculating the user's location corresponding to the user's movement. have. That is, since the wearable device calculates the position while being attached to the body of the user, the wearable device may generate the position information of the user more accurately.
스마트 기기(110)는 사용자의 위치를 주기적으로 계산할 수 있으며, 사용자의 위치는 VR 영상 제공 시스템(10)이 구현된 공간에서의 위치 좌표로 제공될 수 있다.The smart device 110 may periodically calculate the location of the user, and the location of the user may be provided as location coordinates in a space where the VR
또한, 스마트 기기(110)는 사용자로부터 시점 정보 및 장소 정보를 입력받을 수 있다. 여기서, 시점 정보와 장소 정보는 사용자가 감상하기 원하는 VR 영상과 관련된 시점 및 장소를 의미한다.In addition, the smart device 110 may receive viewpoint information and place information from the user. Here, the viewpoint information and the place information mean a viewpoint and a place related to the VR image that the user wants to watch.
예컨대, 사용자가 2002년 6월 4일 및 부산광역시 연제구 월드컵대로 344, 부산 아시아드주경기장과 관련된 영상을 감상하고 싶은 경우, 사용자는 해당 시점 및 장소를 스마트 기기(110)에 입력할 수 있다. 즉, 사용자는 한국과 폴란드의 2002년 월드컵 예선 경기를 감상하기 위해서, 시점정보인 2002년 6월4일과 장소 정보인 부산광역시 연제구 월드컵대로 344, 부산 아시아드주경기장을 스마트 기기(110)에 입력할 수 있다.For example, when a user wants to watch a video related to June 4, 2002 and 344, World Cup-Dae, Yeonje-Gu, Busan, Busan Asiad Main Stadium, the user may input the corresponding time and place into the smart device 110. In other words, in order to enjoy the 2002 World Cup qualifier match between Korea and Poland, the user may input the 344 World Cup-daero, Yeonje-gu, Busan, and the Asian Asia Main Stadium in Busan to the smart device 110. Can be.
스마트 기기(110)는 표시 장치(100) 및 사용자 감지 장치(120)와 NFC, 블루투스, RFID 방식 등의 근거리 통신 방식으로 연결될 수 있으며, 사용자로부터 입력된 입력 정보 및 위치정보를 제공할 수 있다.The smart device 110 may be connected to the
사용자 감지 장치(120)는 스마트 기기(110)로부터 제공된 사용자의 위치 정보를 기초로 사용자와 표시 장치(100) 사이의 위치를 계산할 수 있다. 사용자의 위치 정보는 VR 영상 제공 시스템(10)이 구현된 장소에서 위치 좌표로 표시되기 때문에, 사용자 감지 장치(120)는 사용자의 위치 정보를 기초로 표시 장치(100)와의 거리를 계산할 수 있다.The
사용자 감지 장치(120)는 스마트 기기(110) 및 표시 장치(100)와 NFC, 블루투스, RFID 방식 등의 근거리 통신 방식으로 연결될 수 있으며, 표시장치에 사용자와 표시 장치(100) 사이와의 거리 및 사용자의 위치 좌표를 전송할 수 있다.The
본 명세서에서 사용자 감지 장치(120)가 표시 장치(100)와 별개의 장치로 설명되었으나, 이에 한정되지 않으며 사용자 감지 장치(120)는 표시 장치(100) 내부에 구현될 수 있다.Although the
저장 장치(130)는 시점 및 장소별로 구분된 VR 영상을 저장할 수 있다. 즉, 본 발명의 VR 영상은 현재 시점을 기준으로 과거 영상과 미래 영상을 모두 포함할 수 있고, 각 VR 영상은 모두 특정 시점 및 특정 장소와 결부되어 저장될 수 있다.The
예컨대, VR 영상이 1897년 10월 12일에 서울특별시 중구 소공동 87번지 웨스턴조선호텔과 관련된 영상이라면, 해당 VR 영상은 고종 황제의 즉위식과 관련된 내용을 포함할 수 있다.For example, if the VR image is related to the Western Chosun Hotel, 87 Sogong-dong, Jung-gu, Seoul on October 12, 1897, the VR image may include contents related to the crowning ceremony of Emperor Gojong.
또한, VR 영상이 2105년 5월 3일에 서울 시청과 관련된 영상이라면, 가상으로 생성된 2015년 5월 3일 서울 시청 앞 광경을 포함할 수 있다.In addition, if the VR image is a video related to the Seoul city hall on May 3, 2105, the virtual image may include a scene in front of the Seoul city hall on May 3, 2015.
표시 장치(100)는 소정의 영상을 표시하는 화소들을 포함할 수 있으며, 표시 구동부(미도시)의 제어에 따라 영상을 표시할 수 있다.The
예컨대, 표시 장치(100)는 유기전계발광 표시장치(Organic Light Emitting Display Device), 액정 표시장치(Liquid Crystal Display Device), 플라즈마 표시장치(Plasma Display Device) 등으로 구현될 수 있으나, 이에 제한되지는 않는다. For example, the
본 발명의 실시 예에 따른 표시 장치(100)는 종이처럼 얇고 유연한 기판을 통해 손상 없이 휘거나 구부러진 형태를 유지하는 벤디드(bended) 표시 장치(100)로 구현될 수 있다. 다만, 이에 한정되지 않고 표시 장치(100)는 평판 표시 장치로 구현되거나, 벤디드 표시 영역을 포함하는 평판 표시 장치로도 구현될 수 있다.The
표시 장치(100)는 사용자의 요청에 대응하여 VR 영상을 표시할 수 있다. 다만 이에 한정되는 것은 아니며, 표시 장치(100)는 2D 영상, 3D 영상 등 다양한 영상을 표시할 수 있다.The
표시 장치(100)는 사용자의 입력 정보에 대응하여 VR 영상을 표시할 수 있다.The
만약, 사용자의 입력 정보에 대응하는 VR 영상이 저장 장치(130)에 저장된 경우, 표시 장치(100)는 저장 장치(130)로부터 해당 VR 영상을 리드하여 표시할 수 있지만, 사용자의 입력 정보에 대응되는 VR 영상이 존재하지 않는 경우, 표시장치는 해당 시점 및 장소와 가장 관련성이 높은 VR 영상을 재생할 수 있다.If the VR image corresponding to the input information of the user is stored in the
예컨대, 사용자가 2035년 1월 1일의 서울 시청과 관련된 영상을 요청한 경우, 해당 시점 및 장소와 관련된 VR 영상이 존재하지 않을 수 있다. 이때, 저장된 VR 영상 중 가장 가까운 시점이 2035년 3월 1일이고 광화문과 관련된 VR 영상이 존재하는 경우, 표시 장치(100)는 2035년 1월 1일의 서울 시청과 관련된 영상을 대체하여 2035년 3월 1일이고 광화문과 관련된 VR 영상을 표시할 수 있다.For example, when a user requests an image related to Seoul City Hall on January 1, 2035, a VR image related to a corresponding time and place may not exist. In this case, when the closest time point among the stored VR images is March 1, 2035, and there is a VR image related to Gwanghwamun, the
또한, 표시 장치(100)는 사용자의 위치정보에 대응하는 VR 영상을 표시할 수 있다. 구체적으로, 표시 장치(100)는 복수의 영역에 서로 다른 영상을 표시할 수 있다. 사용자로부터 제공된 입력정보가 적어도 두 개의 VR 영상들과 관련된 경우, 표시 장치(100)는 표시영역 내의 서로 다른 위치에 상기 VR 영상들을 동시에 표시할 수 있다.In addition, the
예컨대, 사용자의 입력정보에는 제1 시점 및 제2 시점을 포함하고, 제1 시점 과 관련된 제1 장소 및 제2 시점과 관련된 제2 장소가 포함될 수 있다. 즉, 사용자가 제1 시점 및 제1 장소와 관련된 제1 VR 영상 및 제2 시점 및 제2 장소와 관련된 제2 VR 영상의 시청을 원하는 것이기 때문에, 표시 장치(100)는 제1 VR 영상과 제2 VR 영상을 표시 영역 내 서로 다른 위치에 동시에 표시할 수 있다.For example, the user's input information may include a first view and a second view, and may include a first place associated with the first view and a second place associated with the second view. That is, since the user wants to view the first VR image associated with the first viewpoint and the first place and the second VR image associated with the second viewpoint and the second place, the
한편, 표시 장치(100)는 사용자가 전체 표시 영역을 한눈에 인식할 정도의 크기로 구현될 수 있지만, 사용자가 한눈에 인식할 수 없을 정도의 크기로 구현될 수도 있다. 따라서, 표시 장치(100)는 사용자에게 VR 영상을 효과적으로 인식시키기 위해, 사용자의 움직임에 대응하여 표시 영역 내 VR 영상이 표시되는 위치를 변경할 수 있다. Meanwhile, the
즉, 표시 장치(100)는 사용자 감지 장치(120)에 의해 계산된 사용자와 표시 장치(100)와의 거리를 이용하여 사용자와 가까이 위치한 표시 영역에 VR 영상을 표시할 수 있다.That is, the
도 2a는 본 발명의 실시 예에 따른 VR 영상 제공 시스템의 사시도이고, 도 2b는 본 발명의 실시 예에 따른 VR 영상 제공 시스템의 평면도이다.2A is a perspective view of a VR image providing system according to an exemplary embodiment, and FIG. 2B is a plan view of a VR image providing system according to an exemplary embodiment.
도 2a 및 도 2b에서는 사용자(200)가 VR 영상을 관람하는 방법을 설명하기 위해 원통 형상의 표시 장치(100)를 도시하였으나, 이에 한정되지 않으며 표시 장치(100)의 형상은 반구 형상, 큐브 형상, 평면, 평면과 곡면으로 이루어진 형상 등 다양하게 변형될 수 있다.2A and 2B illustrate a
도 2a와 도 2b를 참조하면, 사용자(200)는 내부에 표시 영역을 갖으며 원통 형상으로 구현된 표시 장치(100)에서 표시되는 VR 영상을 관람할 수 있다.2A and 2B, the
사용자 감지 장치(120)는 사용자(200)의 위치를 표시 장치(100) 내부에서의 위치 좌표로 계산할 수 있고, 표시 장치(100)와 사용자(200)와의 거리를 계산할 수 있다. 이때, 사용자 감지 장치(120)는 표시 장치(100)와 사용자(200) 사이의 최단 거리를 계산할 수 있고, 사용자(200)와 가장 가깝게 위치한 표시 장치(100)의 특정 위치를 기준 위치로 결정할 수 있다.The
예컨대, 표시 장치(100)의 특정 위치가 제1 위치(PS1)에 있는 사용자(200)와 가장 가까운 것으로 판단된 경우, 상기 특정 위치는 제1 기준 위치(DS1)로 결정될 수 있다.For example, when it is determined that the specific position of the
표시 장치(100)는 사용자 감지 장치(120)로부터 수신된 거리 및 기준 위치를 기초로 VR 영상이 표시될 영역을 결정할 수 있다. 또한, 사용자(200)가 복수의 VR 영상의 시청을 요청한 경우, 표시 장치(100)는 서로 다른 영역에서 VR 영상을 동시에 표시할 수 있다.The
예컨대, 제1 위치(PS1)에 있는 사용자(200)가 복수의 VR 영상을 시청하기를 원하는 경우, 표시 장치(100)는 제1 기준 위치(DS1)를 기준으로 일측에 위치한 제1 영역(AR1)에 제1 VR 영상을 표시하고, 타측에 위치한 제2 영역(AR2)에 제2 VR 영상을 표시할 수 있다.For example, when the
이러한 경우, 사용자(200)는 제1 VR 영상과 제2 VR 영상을 동시에 시청할 수 있으며, 사용자(200)와 가장 가까운 거리에 있는 표시 영역에서 VR 영상들이 표시되기 때문에 보다 명확하게 VR 영상을 인식할 수 있다.In this case, the
만약, 사용자(200)가 움직이는 경우, 표시 장치(100)는 사용자(200)의 움직임에 대응하여 VR 영상의 표시 위치를 변경할 수 있다.If the
즉, 제1 위치(PS1)에 있는 사용자(200)가 제2 위치(PS2)로 이동하는 경우, 사용자(200)와 가장 가까운 표시 장치(100)의 위치가 변경될 수 있다. 즉, 제2 기준 위치(DS2)가 사용자(200)와 가장 가깝다면, 표시 장치(100)는 제2 기준 위치(DS2)를 기준으로 일측에 제1 영역(AR1')을 설정하고, 타측에 제2 영역(AR2')을 설정할 수 있다. 이에 따라, 변경된 제1 영역(AR1')과 변경된 제2 영역(AR2') 각각은 제1 VR 영상 및 제2 VR 영상을 표시할 수 있다.That is, when the
따라서, 사용자(200)가 이동하더라도 표시 장치(100)는 사용자(200)와 가장 가까운 거리에 있는 표시 영역에 VR 영상들을 표시할 수 있기 때문에, 사용자(200)는 항상 명확하게 VR 영상을 인식할 수 있다.Therefore, even if the
도 3a는 본 발명의 실시 예에 따른 VR 영상 제공 방법을 설명하기 위한 개념도이고, 도 3b는 본 발명의 실시 예에 따른 VR 영상 제공 방법을 설명하기 위한 개념도이다.3A is a conceptual diagram illustrating a VR image providing method according to an embodiment of the present invention, and FIG. 3B is a conceptual diagram illustrating a VR image providing method according to an embodiment of the present invention.
도 3a와 도 3b에서는 기준 위치를 설정하기 위한 방법을 설명하기 위해 표시 장치(100)의 화소들을 개념적으로 도시하였으나, 이에 한정되지 않으며 화소들의 배치, 개수 등은 다양하게 변경될 수 있다.3A and 3B conceptually illustrate pixels of the
도 3a와 도 3b를 참조하면, 표시 장치(100)의 표시 영역(DA)에는 매트릭스 형태로 배열된 복수의 화소(PX)들이 배치될 수 있다. 화소(PX)들 각각은 서로 다른 색상을 가질 수 있다3A and 3B, a plurality of pixels PX arranged in a matrix form may be disposed in the display area DA of the
예컨대, 화소(PX)들 각각은 적색, 녹색, 청색, 시안, 마젠타 및 황색 중 어느 하나의 색상을 가질 수 있으며, 상기 화소에서 출사되는 광은 상기 적색, 녹색, 청색, 시안, 마젠타 및 황색 중 어느 하나의 색상을 가질 수 있다. For example, each of the pixels PX may have one of red, green, blue, cyan, magenta, and yellow colors, and light emitted from the pixel may be one of the red, green, blue, cyan, magenta, and yellow colors. It can have any one color.
표시 장치(100)는 사용자(200)의 위치 정보와 계산된 사용자(200)와의 거리를 기초로 기준 위치를 결정할 수 있다. 그리고, 표시 장치(100)는 기준 위치를 기준으로 서로 다른 영상을 표시하는 영역들을 구분할 수 있다. The
서로 다른 영상들을 표시하는 영역들을 명확하게 구분하기 위해, 기준 위치에 대응하는 위치에서 y축을 따라 배치된 화소(PX)들은 기준 화소열로 설정될 수 있다. 기준 화소열은 적어도 하나의 화소열을 포함할 수 있다. In order to clearly distinguish the areas displaying different images, the pixels PXs disposed along the y-axis at positions corresponding to the reference positions may be set as reference pixel columns. The reference pixel column may include at least one pixel column.
예컨대, 기준 위치에 어느 하나의 화소열이 존재하는 경우 상기 어느 하나의 화소열은 기준 화소열로 설정될 수 있고, 기준 위치에 두 개의 화소열이 존재하는 경우 상기 두 개의 화소열은 기준 화소열로 설정될 수 있다. For example, when any one pixel column exists at a reference position, the one pixel column may be set as the reference pixel column, and when two pixel columns exist at the reference position, the two pixel columns may be the reference pixel column. It can be set to.
또한, 기준 화소열의 화소(PX)들은 각 영역의 영상들을 용이하게 구분시키기 위해 블랙 영상을 표시할 수 있다. 기준 화소열이 블랙 영상을 표시함으로써, 기준 화소열의 -x축 방향에 위치한 영상 및 +x축 방향에 위치한 영상은 서로 구분되어 표시될 수 있다. 다만, 이에 한정되는 것은 아니며, 영역들을 구분하기 위한 다양한 색상이 표시될 수 있다. In addition, the pixels PX of the reference pixel column may display a black image in order to easily distinguish images of each region. Since the reference pixel column displays a black image, the image positioned in the -x axis direction and the image located in the + x axis direction of the reference pixel column may be displayed separately from each other. However, the present invention is not limited thereto, and various colors for distinguishing areas may be displayed.
기준 화소열을 기준으로 -x축 방향 및 +x축 방향에는 서로 다른 영역이 배치될 수 있다. 다만, 이에 한정되는 것은 아니며 기준 화소열을 기준으로 두 개의 이상의 영역으로 구분될 수도 있다.Different regions may be disposed in the -x axis direction and the + x axis direction based on the reference pixel column. However, the present invention is not limited thereto and may be divided into two or more regions based on the reference pixel column.
예컨대, 제1 기준 위치(DS1)에 대응하는 제1 기준 화소열(PXG1)이 설정되고, 제1 기준 화소열(PXG1)의 -x축 방향에는 제1 영역(AR1)이 위치하고, +x축 방향에는 제2 영역(AR2)이 위치할 수 있다.For example, the first reference pixel column PXG1 corresponding to the first reference position DS1 is set, the first region AR1 is positioned in the -x axis direction of the first reference pixel column PXG1, and the + x axis The second area AR2 may be located in the direction.
기준 화소열에 의해 구분된 영역들은 서로 다른 시점 및 장소에 관련된 다른 영상을 표시할 수 있다.Regions divided by the reference pixel columns may display different images related to different viewpoints and locations.
예컨대, 사용자(200)가 제1 시점 및 제1 장소와 관련된 제1 VR 영상과, 제2 시점 및 제2 장소와 관련된 제2 VR 영상을 요청한 경우, 표시 장치(100)는 제1 영역(AR1)에서 제1 VR 영상을 표시하고, 제2 영역(AR2)에서 제2 VR 영상을 표시할 수 있다. 여기서, 제1 장소 및 제2 장소는 서로 상이하거나 동일할 수 있다.For example, when the
만약, 사용자(200)가 +x축 방향을 따라 이동한 경우, 표시 장치(100)는 사용자(200)의 움직임에 대응하여 기준 위치를 변경할 수 있고, 기준 위치를 변경함에 따라 기준 화소열도 변경할 수 있다.If the
예컨대, 사용자(200)가 +x축 방향으로 이동함에 따라 제1 기준 위치(DS1)가 제2 기준 위치(DS2)로 변경된 경우, 기준 화소열도 제1 기준 화소열(PXG1)에서 제2 기준 화소열(PXG2)로 변경될 수 있다.For example, when the first reference position DS1 is changed to the second reference position DS2 as the
따라서, 제2 기준 화소열(PXG2)의 -x축 방향에 제1 영역(AR1')이 위치하고, +x축 방향에 제2 영역(AR2')이 위치하게 되며, 변경된 제1 및 제2 영역들(AR1' 및 AR2') 각각에서 영상이 표시될 수 있다. 이러한 영역 변경에 의해서 제1 화소(PX1)는 사용자(200)의 이동하기 전에는 제2 영역(AR2)에 포함되지만, 사용자(200)의 이동 후에는 제1 영역(AR1')에 포함된다.Accordingly, the first region AR1 ′ is positioned in the −x axis direction of the second reference pixel string PXG2, the second region AR2 ′ is positioned in the + x axis direction, and the first and second regions are changed. Images may be displayed in each of AR1 'and AR2'. Due to such an area change, the first pixel PX1 is included in the second area AR2 before the
이상에서 본 발명의 실시 예에 관하여 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 특허청구범위를 벗어남이 없이 다양하게 변형 실시할 수 있을 것으로 이해된다.While the embodiments of the present invention have been described above, it will be understood by those skilled in the art that various modifications may be made without departing from the scope of the claims.
10: VR 영상 제공 시스템
100: 표시 장치
110: 스마트 기기
120: 사용자 감지 장치
130: 저장 장치10: VR video providing system
100: display device
110: smart device
120: user sensing device
130: storage device
Claims (4)
상기 사용자로부터 제1 시점, 및 상기 제1 시점과 상이한 제2 시점을 입력받고, 사용자의 위치 정보를 저장하는 스마트 기기;
상기 제1 시점에 대응하는 제1 VR 영상과 상기 제2 시점에 대응하는 제2 VR 영상을 표시하는 표시 장치;
상기 스마트 기기로부터 제공된 상기 사용자의 위치 정보를 기초로 상기 표시 장치와 인접한 사용자의 움직임을 감지하는 사용자 감지 장치를 포함하고,
상기 표시 장치는 사용자와 가장 가깝게 위치한 상기 표시 장치의 화소열을 기준 화소열로 설정하고, 상기 기준 화소열의 일측에 위치한 제1 영역에 상기 제1 VR 영상을 표시하고, 타측에 위치한 제2 영역에 상기 제2 VR 영상을 표시하며,
상기 기준 화소열은 사용자의 움직임에 대응하여 상기 기준 화소열의 좌측 또는 우측에 위치한 화소열로 변경되는 VR 영상 제공 시스템.In the VR image providing system using a display device for simultaneously providing a plurality of different VR images in response to a user's request,
A smart device configured to receive a first viewpoint and a second viewpoint different from the first viewpoint, and store location information of the user;
A display device configured to display a first VR image corresponding to the first viewpoint and a second VR image corresponding to the second viewpoint;
A user sensing device configured to detect a movement of a user adjacent to the display device based on the location information of the user provided from the smart device;
The display device sets a pixel column of the display device closest to a user as a reference pixel column, displays the first VR image in a first area located on one side of the reference pixel row, and displays a second VR area located in the other area. Displaying the second VR image,
And the reference pixel column is changed to a pixel column positioned to the left or the right of the reference pixel column in response to a movement of a user.
상기 스마트 기기는 사용자로부터 상기 제1 및 제2 시점들에 관련된 장소 정보를 더 입력받으며,
상기 표시 장치는 상기 장소 정보를 기초로 상기 제1 시점 및 제1 장소와 관련된 상기 제1 VR 영상과, 상기 제2 시점 및 제2 장소와 관련된 상기 제2 VR 영상을 표시하는 것을 특징으로 하는 VR 영상 제공 시스템.The method according to claim 1,
The smart device further receives place information related to the first and second viewpoints from a user,
The display device may display the first VR image associated with the first view and the first place and the second VR image associated with the second view and the second place based on the place information. Image Provision System.
상기 제1 장소와 상기 제2 장소는 서로 상이하거나 동일한 위치인 것을 특징으로 하는 VR 영상 제공 시스템.The method according to claim 2,
And the first location and the second location are different or the same location.
상기 제1 VR 영상과 상기 제2 VR 영상을 저장하는 저장 장치를 더 포함하는 VR 영상 제공 시스템.The method according to claim 1,
And a storage device for storing the first VR image and the second VR image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180025168A KR102015835B1 (en) | 2018-03-02 | 2018-03-02 | System for providing virtual reality image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180025168A KR102015835B1 (en) | 2018-03-02 | 2018-03-02 | System for providing virtual reality image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190104720A true KR20190104720A (en) | 2019-09-11 |
KR102015835B1 KR102015835B1 (en) | 2019-10-01 |
Family
ID=67949051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180025168A KR102015835B1 (en) | 2018-03-02 | 2018-03-02 | System for providing virtual reality image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102015835B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170104982A1 (en) * | 2015-10-09 | 2017-04-13 | SoliDDD Corp. | Presentation of a virtual reality scene from a series of images |
-
2018
- 2018-03-02 KR KR1020180025168A patent/KR102015835B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170104982A1 (en) * | 2015-10-09 | 2017-04-13 | SoliDDD Corp. | Presentation of a virtual reality scene from a series of images |
Also Published As
Publication number | Publication date |
---|---|
KR102015835B1 (en) | 2019-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108292489B (en) | Information processing apparatus and image generating method | |
US10019831B2 (en) | Integrating real world conditions into virtual imagery | |
US11645809B2 (en) | Intelligent stylus beam and assisted probabilistic input to element mapping in 2D and 3D graphical user interfaces | |
US10019849B2 (en) | Personal electronic device with a display system | |
CN1791230B (en) | Three dimensional image display apparatus | |
US9848184B2 (en) | Stereoscopic display system using light field type data | |
CN114616535A (en) | Porting physical objects into virtual reality | |
US10999412B2 (en) | Sharing mediated reality content | |
US8780178B2 (en) | Device and method for displaying three-dimensional images using head tracking | |
JP5167439B1 (en) | Stereoscopic image display apparatus and stereoscopic image display method | |
CN103180893A (en) | Method and system for use in providing three dimensional user interface | |
CN108027700A (en) | Information processor | |
US20190192967A1 (en) | Terminal device, system, program, and method | |
TW201341848A (en) | Telescopic observation for virtual reality system and method thereof using intelligent electronic device | |
US10369468B2 (en) | Information processing apparatus, image generating method, and program | |
US10559131B2 (en) | Mediated reality | |
KR102015835B1 (en) | System for providing virtual reality image | |
US20140362197A1 (en) | Image processing device, image processing method, and stereoscopic image display device | |
US11697068B2 (en) | Mobile platform as a physical interface for interaction | |
WO2013121468A1 (en) | 3d image display device and 3d image display method | |
US10726636B2 (en) | Systems and methods to adapt an interactive experience based on user height | |
EP4068061A1 (en) | Method, 3d display device and 3d terminal for realizing floating touch | |
CN112053444B (en) | Method for superposing virtual objects based on optical communication device and corresponding electronic equipment | |
US11966793B1 (en) | Systems and methods to extend an interactive space across multiple platforms | |
CN112535392B (en) | Article display system based on optical communication device, information providing method, apparatus and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |